Sổ Tay AI
ky-thuat Cơ bản

Hallucination (Ảo giác AI) là gì?

Hiện tượng LLM tự tin đưa ra thông tin SAI sự thật — bịa số liệu, trích dẫn, sự kiện không có thật.

Cập nhật: 2 tháng 5, 2026 · 2 phút đọc

Hallucination (ảo giác AI) là hiện tượng LLM trả lời sai một cách RẤT TỰ TIN — bịa số liệu, trích dẫn nguồn không tồn tại, mô tả sự kiện chưa từng xảy ra, viết URL không có thật.

Ví dụ thực tế

User: “Trích dẫn 3 nghiên cứu về tác dụng của melatonin.”

ChatGPT: “1. Smith et al. (2019) trên Journal of Sleep Research, vol 28, đã chứng minh… 2. Park & Lee (2020) Nature Medicine…”

Nghe rất chuyên nghiệp — nhưng các bài báo này không tồn tại. Tên tác giả, số volume, kết luận — tất cả bịa.

Vì sao LLM “ảo giác”?

LLM không có cơ chế kiểm chứng sự thật. Bản chất của LLM là dự đoán token tiếp theo có khả năng cao nhất → khi không biết, nó đoán theo pattern thay vì nói “tôi không biết”.

Các yếu tố làm tăng hallucination:

  • Hỏi về dữ liệu sau training cutoff
  • Hỏi về niche/topic ít xuất hiện trong training data
  • Yêu cầu trích dẫn cụ thể (số liệu, URL, tên)
  • Prompt mơ hồ hoặc thiếu context

Cách giảm hallucination

1. Dùng RAG

Cho model tra cứu tài liệu thực tế trước khi trả lời. Đây là cách hiệu quả nhất → xem RAG.

Claude, ChatGPT, Perplexity đều có khả năng search realtime. Bật lên khi hỏi sự kiện mới.

3. Yêu cầu trích nguồn

“Hãy trích nguồn cụ thể (URL hoặc tên paper). Nếu không chắc, ghi ‘không rõ nguồn’.“

4. Tự hạ “nhiệt độ”

Set temperature: 0 khi cần độ chính xác (vd: tóm tắt tài liệu).

5. Verify

Luôn kiểm tra số liệu/trích dẫn quan trọng trước khi dùng. Đừng tin LLM 100%.

Hallucination KHÔNG hoàn toàn xấu

Trong sáng tác (viết truyện, brainstorm ý tưởng, làm thơ), “hallucination” chính là sáng tạo. Vấn đề chỉ phát sinh khi bạn cần độ chính xác về sự thật.

Liên quan

Thẻ
#hallucination#llm#tin-cay