Apa itu Chain of Thought (CoT)?
Teknik prompt yang meminta LLM 'berpikir langkah demi langkah' sebelum menjawab, secara signifikan meningkatkan akurasi pada soal yang kompleks.
Chain of Thought (CoT — rantai penalaran) adalah teknik prompt yang meminta LLM menuliskan langkah-langkah penalaran sebelum memberi kesimpulan, alih-alih langsung menjawab. Teknik ini meningkatkan akurasi secara signifikan pada soal logika, matematika, dan perencanaan.
Contoh
Prompt biasa:
Roger punya 5 bola tenis. Hari ini ia membeli 2 kotak lagi, masing-masing berisi 3 bola. Berapa jumlah bola Roger?
LLM (tanpa CoT): “11 bola.” → benar, tetapi terkadang salah karena langsung melompat ke kesimpulan.
Prompt CoT:
Roger punya 5 bola tenis. Hari ini ia membeli 2 kotak lagi, masing-masing berisi 3 bola. Berapa jumlah bola Roger? Mari berpikir langkah demi langkah.
LLM:
Langkah 1: Roger awalnya punya 5 bola. Langkah 2: 2 kotak × 3 bola = 6 bola tambahan. Langkah 3: 5 + 6 = 11 bola. Jawaban: 11 bola.
→ Dengan “menyingkap” penalarannya, model mengurangi kesalahan hitungan/logika.
Mengapa CoT efektif?
Intuisi: LLM memprediksi token. Saat diminta menulis step-by-step, setiap token berikutnya dikondisikan oleh langkah sebelumnya → lebih sedikit peluang melompat ke jawaban yang salah.
Paper aslinya (Wei et al., 2022): CoT meningkatkan akurasi dari ~17% menjadi ~58% di benchmark matematika GSM8K dengan model 540B.
Variasi
Zero-shot CoT
Cukup tambahkan "Let's think step by step" di akhir prompt → sudah cukup memicu reasoning.
Few-shot CoT
Berikan 2-3 contoh penyelesaian step-by-step sebelum bertanya soal sebenarnya:
Q: 23 + 47 = ?
A: 23 + 47. 23 = 20+3, 47 = 40+7. 20+40 = 60, 3+7 = 10, 60+10 = 70. Jawab: 70.
Q: 89 - 34 = ?
A: ...
Tree of Thoughts (ToT)
Penalaran berbentuk pohon — mencoba banyak cabang, mengevaluasi, lalu memilih cabang terbaik.
Self-consistency
Membuat banyak CoT yang berbeda (temperature tinggi), lalu memilih jawaban yang paling sering muncul.
Reasoning models (2025-26)
Model generasi baru (OpenAI o1/o3, Claude 4.7 Sonnet dengan extended thinking, Gemini 2.5) otomatis melakukan CoT secara internal sebelum menjawab, tanpa perlu prompt khusus.
→ Bisa menampilkan “thinking…” beberapa detik hingga beberapa menit sebelum hasil keluar. Lebih mahal tetapi akurasinya jauh lebih tinggi untuk soal sulit.
Kapan TIDAK perlu CoT
- Pertanyaan sederhana (definisi, fakta)
- Penulisan bebas (puisi, cerita)
- Butuh jawab cepat, latency penting