Training (Huấn luyện AI) là gì?
Quá trình dạy mô hình AI bằng cách cho xem hàng triệu/tỷ ví dụ và điều chỉnh tham số nội bộ.
Training là quá trình dạy mô hình AI rút ra quy luật từ dữ liệu — cho mô hình xem hàng triệu/tỷ ví dụ, mỗi lần đoán sai thì chỉnh tham số nội bộ một chút, lặp lại đến khi đoán đúng phần lớn.
3 giai đoạn training của một LLM
1. Pre-training
Cho model đọc HÀNG NGHÌN TỶ token (gần như toàn bộ web có chất lượng + sách + code).
- Mục tiêu: đoán token tiếp theo
- Tốn nhất: vài tháng × hàng nghìn GPU = $10-100M
- Kết quả: model “biết tiếng” và “biết kiến thức chung” nhưng chưa hữu ích
2. Supervised Fine-Tuning (SFT)
Cho model xem các cặp (prompt → câu trả lời mẫu) chất lượng cao.
- Mục tiêu: dạy model trả lời theo dạng “trợ lý”
- Dữ liệu: vài chục - vài trăm nghìn cặp do người viết
- Chi phí: $100k-$1M
3. RLHF (hoặc DPO)
Tinh chỉnh thêm bằng phản hồi con người về câu trả lời nào tốt hơn.
- Mục tiêu: dạy model “đúng ý” hơn — hữu ích, an toàn, không nịnh
- Xem RLHF chi tiết
Tham số (parameters)
Trong quá trình training, model học bằng cách điều chỉnh các “trọng số” (weights) — chính là parameters.
- GPT-2: 1.5 tỷ parameter
- GPT-4: ~1.7 nghìn tỷ
- Llama 3.3 70B: 70 tỷ
Càng nhiều parameter → càng “thông minh”, nhưng tốn bộ nhớ và compute hơn.
Training tốn gì?
Tài nguyên
- GPU/TPU cluster: hàng nghìn-chục nghìn chip
- Data: TB - PB text
- Điện: train GPT-4 ước tính ~50GWh (≈ tiêu thụ 5000 nhà 1 năm)
- Tiền: $10M - $1B+ cho frontier model
Thời gian
- Pre-training: 2-6 tháng
- Fine-tuning: 1-4 tuần
- RLHF: 2-8 tuần
→ Vì sao chỉ vài công ty (OpenAI, Anthropic, Google, Meta, xAI) có thể train frontier model.
Bạn có cần training riêng?
99% trường hợp KHÔNG. Lý do:
- Quá đắt
- Cần expertise sâu
- Đa số use case giải được bằng prompting + RAG
- Khi cần customization → fine-tune model có sẵn (xem Fine-tuning)
Chỉ train từ đầu nếu:
- Bạn là big lab có ngân sách
- Cần model riêng cho ngành/ngôn ngữ đặc thù chưa có
- Cần quyền sở hữu tuyệt đối về model (vd: quân sự)
Liên quan
- Inference — chạy model đã train
- Fine-tuning
- GPU