ky-thuat Menengah
Apa itu RAG (Retrieval-Augmented Generation)?
Teknik yang memungkinkan LLM merujuk dokumen Anda sebelum menjawab — mengurangi halusinasi dan mendasarkan jawaban pada data nyata.
Diperbarui: 5 Mei 2026 · 1 min read
RAG (Retrieval-Augmented Generation) adalah teknik yang memungkinkan LLM merujuk pada kumpulan dokumen sebelum menjawab pertanyaan.
Cara kerjanya
- Anda punya korpus (PDF, halaman web, record database…)
- Sistem mengubah setiap chunk menjadi embedding (vector angka)
- Saat user bertanya, pertanyaannya juga di-embed
- Cari chunk yang vector-nya paling dekat dengan pertanyaan
- Sisipkan chunk itu ke dalam prompt → LLM menjawab berdasarkan chunk tersebut
Mengapa pakai RAG?
- LLM hanya tahu apa yang ada di training data — RAG memberi mereka informasi terbaru, privat, atau khusus
- LLM berhalusinasi saat tidak tahu sesuatu — RAG memaksa mereka mengandalkan sumber
- Anda tidak bisa memasukkan terabyte dokumen ke prompt — RAG hanya mengambil bagian yang relevan
Contoh
Sebuah bank ingin chatbot customer support. Daripada fine-tuning LLM (mahal, lambat), mereka pakai RAG: saat pelanggan bertanya “Berapa suku bunga deposito 6 bulan?”, sistem mengambil daftar suku bunga terbaru, memberikannya ke LLM, lalu LLM menjawab dengan angka yang akurat.
Kapan pakai RAG
- Anda punya korpus internal yang dibutuhkan model
- Jawaban harus mencerminkan data terkini
- Anda perlu mengurangi halusinasi
Kapan TIDAK pakai RAG
- Pertanyaannya tidak butuh pengetahuan eksternal (“tulis email izin cuti untuk saya”)
- Korpus Anda kecil (<100 halaman) — masukkan saja ke context window
- Anda mau persona/style yang konsisten — itu tugas fine-tuning
Terkait
Tag
#rag#llm#vector-db