Từ điển thuật ngữ AI
Tra cứu nhanh hơn 50+ khái niệm cốt lõi.
Fine-tuning là gì?
Quá trình huấn luyện thêm cho mô hình AI có sẵn để nó giỏi hơn ở một tác vụ cụ thể.
RAG (Retrieval-Augmented Generation) là gì?
Kỹ thuật cho AI tra cứu tài liệu của bạn trước khi trả lời, giúp giảm bịa và trả lời sát thực tế.
Prompt Engineering là gì?
Kỹ thuật thiết kế câu lệnh để mô hình AI hiểu đúng ý và trả lời chính xác hơn.
Context Window là gì?
Lượng văn bản tối đa mà LLM có thể 'nhớ' trong 1 lần xử lý. Quyết định bạn có thể đưa bao nhiêu thông tin vào prompt.
Trí tuệ nhân tạo (AI) là gì?
Lĩnh vực khoa học máy tính giúp máy mô phỏng năng lực tư duy, học tập và ra quyết định của con người.
AI Agent là gì?
Hệ thống AI có thể tự lên kế hoạch, dùng công cụ, ra quyết định nhiều bước để hoàn thành nhiệm vụ — không chỉ trả lời câu hỏi.
Chain of Thought (CoT) là gì?
Kỹ thuật prompt yêu cầu LLM 'suy nghĩ từng bước' trước khi trả lời, giúp tăng độ chính xác đáng kể với bài toán phức tạp.
Deep Learning (Học sâu) là gì?
Nhánh của machine learning dùng mạng neural nhiều lớp để học từ dữ liệu phức tạp như ảnh, âm thanh, văn bản.
Embedding là gì?
Cách biểu diễn văn bản, ảnh hay bất cứ thứ gì thành vector số để máy tính hiểu được ý nghĩa.
Function Calling (Tool Use) là gì?
Khả năng cho LLM gọi hàm/API bên ngoài để truy xuất dữ liệu thật, không chỉ sinh text từ memory.
Hallucination (Ảo giác AI) là gì?
Hiện tượng LLM tự tin đưa ra thông tin SAI sự thật — bịa số liệu, trích dẫn, sự kiện không có thật.
Generative AI là gì?
Loại AI không chỉ phân loại/dự đoán mà còn TẠO ra nội dung mới: văn bản, ảnh, video, code, âm nhạc.
Machine Learning (Học máy) là gì?
Phương pháp giúp máy tự học quy luật từ dữ liệu thay vì được lập trình từng bước.
LLM (Large Language Model) là gì?
Mô hình ngôn ngữ lớn — loại AI có thể hiểu và sinh văn bản như con người. ChatGPT, Claude, Gemini đều là LLM.
Multimodal (Đa phương thức) là gì?
AI có thể xử lý nhiều kiểu dữ liệu cùng lúc: văn bản, ảnh, audio, video — không chỉ text như LLM cũ.
MCP (Model Context Protocol) là gì?
Chuẩn mở do Anthropic công bố giúp LLM kết nối với tool, database, ứng dụng theo một giao thức thống nhất.
Neural Network (Mạng neural) là gì?
Cấu trúc tính toán mô phỏng cách neuron trong não kết nối, là nền tảng của deep learning hiện đại.
RLHF là gì?
Reinforcement Learning from Human Feedback — kỹ thuật dùng phản hồi của con người để dạy LLM trả lời 'đúng ý' hơn.
Vector Database là gì?
Loại database chuyên lưu và tìm kiếm vector embedding nhanh, là nền tảng cho RAG và semantic search.
Transformer là gì?
Kiến trúc neural network được giới thiệu năm 2017, là nền tảng đứng sau mọi LLM hiện nay (GPT, Claude, Gemini).
Token (LLM) là gì?
Đơn vị nhỏ nhất mà LLM xử lý — không phải là từ, mà là mảnh ghép của từ. Tokens quyết định giá API và giới hạn context.
API (AI) là gì? Cách dùng API LLM
Cách lập trình viên gọi mô hình AI từ code — Claude API, OpenAI API, Gemini API hoạt động thế nào.
AI Alignment là gì?
Lĩnh vực nghiên cứu đảm bảo AI hành động theo ý định và giá trị của con người — không lệch hướng khi mạnh hơn.
Computer Vision là gì?
Lĩnh vực AI giúp máy 'nhìn' và hiểu nội dung ảnh, video — từ nhận diện khuôn mặt đến xe tự lái.
Diffusion Model là gì?
Loại mô hình AI sinh ảnh bằng cách dần khử nhiễu — đứng sau Midjourney, Stable Diffusion, DALL-E.
Foundation Model là gì?
Mô hình AI lớn được train trên dữ liệu rộng, đa dụng — làm nền tảng để fine-tune cho nhiều task khác nhau.
GPU là gì? Vì sao AI cần GPU?
Card đồ họa — phần cứng tăng tốc tính toán song song, là 'xương sống' của mọi mô hình AI hiện đại.
Inference (Suy luận AI) là gì?
Quá trình chạy mô hình AI đã train để trả lời user — quyết định chi phí và tốc độ khi đưa AI vào sản phẩm.
Jailbreak (AI) là gì?
Kỹ thuật lách qua các giới hạn an toàn của LLM để khiến nó làm điều bình thường nó từ chối.
LoRA là gì?
Low-Rank Adaptation — kỹ thuật fine-tune model lớn tiết kiệm 100-1000× resource so với fine-tune toàn bộ.
NLP (Xử lý Ngôn ngữ Tự nhiên) là gì?
Nhánh AI giúp máy đọc, hiểu, sinh ngôn ngữ con người — từ Google Translate đến ChatGPT đều là NLP.
Quantization (Lượng tử hóa) là gì?
Kỹ thuật giảm độ chính xác số trong model AI để chạy nhanh hơn, tốn ít RAM hơn — đánh đổi chút accuracy.
System Prompt là gì?
Đoạn instruction 'cài đặt' cho LLM trước khi user nói chuyện — quyết định persona, format, giới hạn của AI.
Training (Huấn luyện AI) là gì?
Quá trình dạy mô hình AI bằng cách cho xem hàng triệu/tỷ ví dụ và điều chỉnh tham số nội bộ.