Sổ Tay AI
ky-thuat Pemula

Apa itu Context Window?

Jumlah teks maksimum yang bisa 'diingat' LLM dalam satu kali pemrosesan. Menentukan seberapa banyak informasi yang bisa Anda masukkan ke prompt.

Diperbarui: 5 Mei 2026 · 1 min read

Context Window (jendela konteks) adalah jumlah maksimum token yang bisa diproses LLM dalam satu panggilan — termasuk prompt Anda dan jawaban model.

Perbandingan model (2026)

ModelContext WindowSetara dengan
GPT-3.516k~30 halaman A4
GPT-4o128k~250 halaman
Claude 4.7 Sonnet200k - 1M400 - 2000 halaman
Gemini 2.5 Pro2M~4000 halaman (satu buku tebal)
Llama 3.3128k~250 halaman

Mengapa context window penting?

Keuntungan saat context besar

  • Memasukkan seluruh dokumen ke prompt tanpa perlu RAG yang rumit
  • Percakapan panjang (ChatGPT mengingat chat sebulan terakhir)
  • Menganalisis seluruh codebase atau buku dalam satu panggilan

Kekurangan

  • Mahal — dihitung per token. Memasukkan satu buku = bayar mahal
  • Lambat — semakin panjang context, semakin lama model menjawab
  • Encer — model bisa melewatkan informasi di tengah context yang panjang (efek “lost in the middle”)
  • Reliabilitas rumit — RAG tetap dianjurkan saat dokumen sangat besar

Aturan praktis

SituasiSolusi
< 50 halaman dokumenMasukkan langsung ke prompt
50 - 500 halamanPertimbangkan context besar (Claude 1M, Gemini 2M)
> 500 halamanPakai RAG, jangan brute force
Percakapan panjangPakai prompt caching agar hemat

Tips memanfaatkan context window

  • Letakkan pertanyaan/instruksi PENTING di AWAL dan AKHIR — agar tidak encer
  • Susun prompt yang jelas dengan XML tag (Claude) atau heading markdown
  • Gunakan prompt cache jika menggunakan kembali context yang sama (hemat biaya hingga 90%)

Terkait

  • Token
  • RAG — saat context tidak cukup
Tag
#context#llm#token