Apa itu AI Hallucination?
Ketika LLM dengan percaya diri menghasilkan informasi yang salah secara faktual — statistik palsu, sitasi fiktif, peristiwa karangan.
AI Hallucination terjadi ketika LLM dengan percaya diri menyatakan sesuatu yang tidak benar — mengarang angka, mengutip paper yang tidak ada, mendeskripsikan peristiwa yang tidak pernah terjadi, atau menciptakan URL palsu.
Contoh nyata
User: “Sebutkan tiga studi tentang efek melatonin.”
ChatGPT: “1. Smith et al. (2019), Journal of Sleep Research, vol 28, menunjukkan… 2. Park & Lee (2020), Nature Medicine…”
Terdengar profesional — tetapi studi-studi tersebut tidak ada. Nama author, nomor volume, kesimpulan — semuanya karangan.
Mengapa LLM berhalusinasi
LLM tidak memiliki mekanisme fact-checking. Pada intinya, mereka memprediksi token berikutnya yang paling mungkin. Ketika tidak tahu, mereka melakukan pattern-matching alih-alih mengatakan “Saya tidak tahu.”
Hal-hal yang meningkatkan Hallucination:
- Bertanya tentang peristiwa setelah training cutoff
- Topik niche dengan sedikit data training
- Permintaan sitasi yang sangat spesifik (angka, URL, nama)
- Prompt yang ambigu atau minim konteks
Cara mengurangi Hallucination
1. Gunakan RAG
Biarkan model mencari dokumen nyata sebelum menjawab — solusi paling efektif. Lihat RAG.
2. Aktifkan web search
Claude, ChatGPT, dan Perplexity bisa melakukan pencarian secara real time. Aktifkan untuk peristiwa terkini.
3. Minta sumber
“Sebutkan sumber spesifik (URL atau paper). Jika tidak yakin, tulis ‘sumber tidak diketahui’.“
4. Turunkan temperature
Setel temperature: 0 ketika akurasi penting (mis. summarization dokumen).
5. Verifikasi
Selalu cek angka dan sitasi penting sebelum digunakan. Jangan percaya LLM secara membabi buta.
Hallucination tidak selalu buruk
Untuk pekerjaan kreatif — fiksi, brainstorming, puisi — “Hallucination” hanyalah kreativitas. Masalah baru muncul ketika akurasi faktual yang dibutuhkan.
Terkait
- RAG — mitigasi nomor 1
- Prompt Engineering