Sổ Tay AI
co-ban Pemula

Apa itu GPU? Mengapa AI Membutuhkan GPU?

Kartu grafis — perangkat keras yang mempercepat komputasi paralel, menjadi 'tulang punggung' setiap model AI modern.

Diperbarui: 5 Mei 2026 · 2 min read

GPU (Graphics Processing Unit — unit pemroses grafis) awalnya dibuat untuk merender game 3D, tetapi ternyata arsitekturnya juga sangat cocok untuk training dan menjalankan AI. Inilah alasan Nvidia menjadi perusahaan terpenting di industri teknologi pada dekade 2020-an.

Mengapa GPU cocok untuk AI?

CPU dirancang untuk menjalankan sedikit task kompleks dengan cepat dan secara berurutan. GPU dirancang untuk menjalankan ribuan task sederhana secara paralel.

Neural network adalah jutaan perkalian matriks sederhana — tepat menjadi “spesialisasi” GPU.

CPU:  4-32 core kuat, untuk task kompleks
GPU:  10,000+ core lebih lemah, jalan bersamaan

Melatih satu LLM di CPU: berbulan-bulan. Di cluster GPU: beberapa minggu.

GPU AI populer (2026)

GPUMemoryEstimasi hargaTujuan
Nvidia H200141GB~$30k-40kTraining + Inference data center
Nvidia B200 (Blackwell)192GB~$50k+Training model frontier
Nvidia A10040-80GB~$8k-15kGenerasi lama, masih populer
Nvidia RTX 409024GB~$1.6kInference lokal, hobbyist
AMD MI300X192GB~$15kPesaing H100, mulai populer
Apple M4 Maxunified 128GBterintegrasi di MacInference lokal untuk developer

Bedakan training vs Inference

  • Training: butuh GPU sangat kuat, RAM besar, berjalan berminggu-minggu sampai bulan. Mahal.
  • Inference: menjalankan model yang sudah di-training untuk menjawab user. Lebih hemat, tetapi harus di-scale sesuai jumlah user.

Training: cluster H100/B200. Inference: bisa H100, bisa kartu yang lebih murah (L4, T4) atau bahkan Apple M-chip untuk LLM lokal.

Mengapa Nvidia “mendominasi”?

  • CUDA — software stack proprietary, sebagian besar AI framework (PyTorch, TF) dioptimasi untuk CUDA terlebih dahulu
  • Ekosistem library yang dalam (cuDNN, NCCL, TensorRT)
  • Networking (NVLink) memungkinkan menggabungkan banyak GPU menjadi cluster besar
  • AMD dan Intel sedang mengejar tetapi masih jauh

Apakah pengguna akhir perlu tahu soal GPU?

  • Pakai ChatGPT, Claude lewat web/app: TIDAK. Provider yang urus.
  • Menjalankan LLM lokal (Ollama, LM Studio): YA. Minimal RTX 3060 12GB, idealnya RTX 4090 atau Mac M-series.
  • Membangun produk AI: sebaiknya paham dasarnya untuk memperkirakan biaya Inference.

Terkait

Tag
#gpu#phan-cung#training