Chain of Thought (CoT) là gì?
Kỹ thuật prompt yêu cầu LLM 'suy nghĩ từng bước' trước khi trả lời, giúp tăng độ chính xác đáng kể với bài toán phức tạp.
Chain of Thought (CoT — chuỗi suy luận) là kỹ thuật prompt yêu cầu LLM viết ra các bước suy nghĩ trước khi đưa kết luận, thay vì trả lời thẳng. Cải thiện độ chính xác đáng kể ở bài toán logic, toán, lập kế hoạch.
Ví dụ
Prompt thường:
Roger có 5 quả bóng tennis. Hôm nay anh mua thêm 2 hộp, mỗi hộp 3 quả. Roger có bao nhiêu quả?
LLM (không CoT): “11 quả.” → đúng, nhưng có lúc sai vì nhảy luôn kết luận.
Prompt CoT:
Roger có 5 quả bóng tennis. Hôm nay anh mua thêm 2 hộp, mỗi hộp 3 quả. Roger có bao nhiêu quả? Hãy suy nghĩ từng bước.
LLM:
Bước 1: Roger ban đầu có 5 quả. Bước 2: 2 hộp × 3 quả = 6 quả mua thêm. Bước 3: 5 + 6 = 11 quả. Đáp án: 11 quả.
→ Bằng cách “phơi bày” suy luận, model giảm được lỗi tính toán/logic.
Vì sao CoT hiệu quả?
Trực giác: LLM dự đoán token. Khi yêu cầu nó viết step-by-step, mỗi token sau được điều kiện hóa bởi step trước → ít cơ hội nhảy cóc sai.
Paper gốc (Wei et al., 2022): CoT cải thiện độ chính xác từ ~17% lên ~58% trên benchmark toán GSM8K với model 540B.
Các biến thể
Zero-shot CoT
Chỉ thêm "Let's think step by step" vào cuối prompt → đủ để kích hoạt suy luận.
Few-shot CoT
Cho 2-3 ví dụ giải kiểu step-by-step trước khi hỏi câu thật:
Q: 23 + 47 = ?
A: 23 + 47. 23 = 20+3, 47 = 40+7. 20+40 = 60, 3+7 = 10, 60+10 = 70. Đáp án: 70.
Q: 89 - 34 = ?
A: ...
Tree of Thoughts (ToT)
Suy luận theo cây — thử nhiều nhánh, đánh giá, chọn nhánh tốt nhất.
Self-consistency
Sinh nhiều CoT khác nhau (temperature cao), bầu chọn đáp án xuất hiện nhiều nhất.
Reasoning models (2025-26)
Model thế hệ mới (OpenAI o1/o3, Claude 4.7 Sonnet với extended thinking, Gemini 2.5) tự động làm CoT bên trong trước khi trả lời, không cần prompt.
→ Có thể hiển thị “thinking…” vài giây - vài phút trước khi ra kết quả. Đắt hơn nhưng độ chính xác cao hơn nhiều cho bài khó.
Khi nào KHÔNG cần CoT
- Câu hỏi đơn giản (định nghĩa, fact)
- Sáng tác tự do (viết thơ, story)
- Cần trả lời nhanh, latency quan trọng