Sổ Tay AI
ky-thuat Pemula

Apa itu Chain of Thought (CoT)?

Teknik prompt yang meminta LLM 'berpikir langkah demi langkah' sebelum menjawab, secara signifikan meningkatkan akurasi pada soal yang kompleks.

Diperbarui: 5 Mei 2026 · 2 min read

Chain of Thought (CoT — rantai penalaran) adalah teknik prompt yang meminta LLM menuliskan langkah-langkah penalaran sebelum memberi kesimpulan, alih-alih langsung menjawab. Teknik ini meningkatkan akurasi secara signifikan pada soal logika, matematika, dan perencanaan.

Contoh

Prompt biasa:

Roger punya 5 bola tenis. Hari ini ia membeli 2 kotak lagi, masing-masing berisi 3 bola. Berapa jumlah bola Roger?

LLM (tanpa CoT): “11 bola.” → benar, tetapi terkadang salah karena langsung melompat ke kesimpulan.

Prompt CoT:

Roger punya 5 bola tenis. Hari ini ia membeli 2 kotak lagi, masing-masing berisi 3 bola. Berapa jumlah bola Roger? Mari berpikir langkah demi langkah.

LLM:

Langkah 1: Roger awalnya punya 5 bola. Langkah 2: 2 kotak × 3 bola = 6 bola tambahan. Langkah 3: 5 + 6 = 11 bola. Jawaban: 11 bola.

→ Dengan “menyingkap” penalarannya, model mengurangi kesalahan hitungan/logika.

Mengapa CoT efektif?

Intuisi: LLM memprediksi token. Saat diminta menulis step-by-step, setiap token berikutnya dikondisikan oleh langkah sebelumnya → lebih sedikit peluang melompat ke jawaban yang salah.

Paper aslinya (Wei et al., 2022): CoT meningkatkan akurasi dari ~17% menjadi ~58% di benchmark matematika GSM8K dengan model 540B.

Variasi

Zero-shot CoT

Cukup tambahkan "Let's think step by step" di akhir prompt → sudah cukup memicu reasoning.

Few-shot CoT

Berikan 2-3 contoh penyelesaian step-by-step sebelum bertanya soal sebenarnya:

Q: 23 + 47 = ?
A: 23 + 47. 23 = 20+3, 47 = 40+7. 20+40 = 60, 3+7 = 10, 60+10 = 70. Jawab: 70.

Q: 89 - 34 = ?
A: ...

Tree of Thoughts (ToT)

Penalaran berbentuk pohon — mencoba banyak cabang, mengevaluasi, lalu memilih cabang terbaik.

Self-consistency

Membuat banyak CoT yang berbeda (temperature tinggi), lalu memilih jawaban yang paling sering muncul.

Reasoning models (2025-26)

Model generasi baru (OpenAI o1/o3, Claude 4.7 Sonnet dengan extended thinking, Gemini 2.5) otomatis melakukan CoT secara internal sebelum menjawab, tanpa perlu prompt khusus.

→ Bisa menampilkan “thinking…” beberapa detik hingga beberapa menit sebelum hasil keluar. Lebih mahal tetapi akurasinya jauh lebih tinggi untuk soal sulit.

Kapan TIDAK perlu CoT

  • Pertanyaan sederhana (definisi, fakta)
  • Penulisan bebas (puisi, cerita)
  • Butuh jawab cepat, latency penting

Terkait

Tag
#cot#prompt#reasoning