Glosarium Istilah Kecerdasan Buatan: Memahami Dunia AI
Dunia kecerdasan buatan (AI) sering kali dipenuhi dengan istilah teknis yang rumit. Untuk membantu pemahaman, glosarium ini merangkum beberapa istilah kunci yang sering digunakan dalam pembahasan seputar AI, mulai dari definisi dasar hingga konsep yang lebih mendalam. Daftar ini akan diperbarui secara berkala seiring dengan perkembangan pesat di bidang ini.
Kecerdasan Buatan Umum (AGI)
Kecerdasan Buatan Umum (AGI) merujuk pada AI yang memiliki kemampuan melebihi manusia rata-rata dalam berbagai tugas. Definisi ini bervariasi di antara para ahli; OpenAI mendefinisikannya sebagai sistem yang sangat otonom dan melampaui manusia dalam sebagian besar pekerjaan bernilai ekonomi. Sementara itu, Google DeepMind mengartikannya sebagai AI yang setidaknya setara dengan manusia dalam sebagian besar tugas kognitif. Ketidakpastian dalam definisi ini mencerminkan kompleksitas bidang ini.
Agen AI
Agen AI adalah alat yang memanfaatkan teknologi AI untuk menjalankan serangkaian tugas atas nama pengguna, melampaui kapabilitas chatbot AI dasar. Contohnya meliputi pengarsipan pengeluaran, pemesanan tiket, atau bahkan penulisan dan pemeliharaan kode. Konsep ini masih terus berkembang, dan infrastruktur pendukungnya masih dibangun. Intinya, agen AI adalah sistem otonom yang dapat menggunakan berbagai sistem AI untuk menyelesaikan tugas berulang.
Rantai Pemikiran (Chain of Thought)
Dalam konteks AI, “rantai pemikiran” merujuk pada kemampuan model bahasa besar (LLM) untuk memecah masalah kompleks menjadi langkah-langkah perantara yang lebih kecil. Proses ini, mirip dengan cara manusia menggunakan kertas dan pena untuk memecahkan soal matematika, meningkatkan akurasi hasil akhir, terutama dalam tugas logika atau pemrograman. Model penalaran yang dioptimalkan untuk “rantai pemikiran” dikembangkan melalui pembelajaran penguatan.
Komputasi (Compute)
Komputasi mengacu pada kekuatan pemrosesan yang vital untuk operasional model AI. Kekuatan komputasi ini memungkinkan pelatihan dan penerapan model AI. Istilah ini sering kali merupakan singkatan untuk perangkat keras yang menyediakan daya komputasi tersebut, seperti GPU, CPU, TPU, dan infrastruktur lainnya yang menjadi fondasi industri AI modern.
Pembelajaran Mendalam (Deep Learning)
Pembelajaran mendalam adalah sub-bidang dari machine learning yang menggunakan struktur jaringan saraf tiruan berlapis. Struktur ini memungkinkan AI untuk membuat korelasi yang lebih kompleks dibandingkan sistem machine learning yang lebih sederhana. Algoritma pembelajaran mendalam terinspirasi oleh pola koneksi neuron di otak manusia. Model AI ini dapat mengidentifikasi fitur penting dalam data secara mandiri, belajar dari kesalahan, dan meningkatkan outputnya. Namun, metode ini membutuhkan volume data yang sangat besar dan waktu pelatihan yang lebih lama, sehingga biaya pengembangannya cenderung lebih tinggi.
Difusi (Diffusion)
Difusi adalah teknologi inti di balik banyak model AI yang menghasilkan karya seni, musik, dan teks. Terinspirasi dari fisika, sistem difusi secara bertahap merusak struktur data (seperti foto atau lagu) dengan menambahkan noise hingga tidak ada yang tersisa. Namun, sistem difusi AI berupaya mempelajari proses “difusi terbalik” untuk memulihkan data yang rusak, sehingga mampu merekonstruksi data dari noise.
Distilasi (Distillation)
Distilasi adalah teknik untuk mengekstraksi pengetahuan dari model AI besar ke dalam model yang lebih kecil, yang dikenal sebagai model “guru-murid”. Model guru menghasilkan output yang kemudian digunakan untuk melatih model murid agar meniru perilakunya. Teknik ini dapat menciptakan model yang lebih kecil dan efisien. Distilasi juga dapat digunakan oleh perusahaan AI untuk mengejar ketertinggalan dari model terdepan, meskipun praktik ini seringkali melanggar ketentuan layanan API AI.
Penyesuaian Halus (Fine-tuning)
Penyesuaian halus merujuk pada pelatihan tambahan pada model AI untuk mengoptimalkan kinerjanya pada tugas atau domain yang lebih spesifik. Proses ini dilakukan dengan memberikan data baru yang terspesialisasi. Banyak startup AI menggunakan model bahasa besar yang sudah ada sebagai titik awal, kemudian melakukan penyesuaian halus dengan pengetahuan domain spesifik mereka untuk membangun produk komersial.
Jaringan Adversarial Generatif (GAN)
Jaringan Adversarial Generatif (GAN) adalah kerangka kerja machine learning yang mendasari pengembangan AI generatif, termasuk alat deepfake. GAN melibatkan sepasang jaringan saraf: satu menghasilkan data, dan yang lainnya mengevaluasi keasliannya. Kedua jaringan ini saling bersaing untuk meningkatkan kualitas output AI agar lebih realistis tanpa campur tangan manusia. GAN paling efektif untuk aplikasi spesifik, seperti menghasilkan foto atau video realistis.
Halusinasi (Hallucination)
Halusinasi adalah istilah yang digunakan dalam industri AI untuk menggambarkan fenomena saat model AI menghasilkan informasi yang salah atau mengada-ada. Ini merupakan masalah signifikan terhadap kualitas AI, karena output yang dihasilkan bisa menyesatkan dan berpotensi menimbulkan risiko nyata, seperti saran medis yang berbahaya. Halusinasi diduga timbul akibat celah dalam data pelatihan. Untuk mengatasi ini, banyak alat GenAI menyarankan pengguna untuk memverifikasi informasi yang dihasilkan.
Inferensi (Inference)
Inferensi adalah proses menjalankan model AI untuk membuat prediksi atau menarik kesimpulan dari data yang telah dilihat sebelumnya. Inferensi tidak dapat terjadi tanpa pelatihan; model harus terlebih dahulu mempelajari pola dalam data. Berbagai jenis perangkat keras dapat melakukan inferensi, namun efisiensinya bervariasi tergantung pada ukuran model dan kemampuan perangkat keras.
Model Bahasa Besar (LLM)
Model Bahasa Besar (LLM) adalah model AI yang mendasari asisten AI populer seperti ChatGPT, Gemini, dan Llama. LLM adalah jaringan saraf dalam dengan miliaran parameter yang mempelajari hubungan antar kata dan frasa untuk menciptakan representasi bahasa. Model ini dilatih menggunakan miliaran buku, artikel, dan transkrip. Saat pengguna berinteraksi dengan LLM, model tersebut menghasilkan urutan kata yang paling mungkin berdasarkan prompt yang diberikan.
Cache Memori (Memory Cache)
Cache memori adalah proses optimasi yang meningkatkan efisiensi inferensi AI. Dengan menyimpan perhitungan tertentu, cache memori mengurangi jumlah kalkulasi yang perlu dijalankan model untuk kueri pengguna di masa mendatang. KV (key-value) caching adalah salah satu jenis cache memori yang umum digunakan pada model berbasis transformer untuk mempercepat hasil.
Jaringan Saraf (Neural Network)
Jaringan saraf adalah struktur algoritmik berlapis yang menjadi dasar pembelajaran mendalam dan kebangkitan alat AI generatif. Terinspirasi oleh struktur otak manusia, ide ini telah ada sejak lama. Namun, kemajuan pesat dalam perangkat keras pemrosesan grafis (GPU) baru-baru ini memungkinkan pelatihan algoritma jaringan saraf yang lebih dalam, menghasilkan kinerja AI yang jauh lebih baik dalam berbagai domain.
RAMageddon
RAMageddon adalah istilah yang digunakan untuk menggambarkan kelangkaan chip memori akses acak (RAM) yang semakin meningkat. Industri AI yang berkembang pesat membutuhkan volume RAM yang sangat besar untuk pusat data mereka, menyebabkan kekurangan pasokan untuk sektor lain seperti industri game, elektronik konsumen, dan komputasi perusahaan. Kelangkaan ini diperkirakan akan terus berlanjut dalam waktu dekat.
Pelatihan (Training)
Pelatihan adalah proses di mana data dimasukkan ke dalam model machine learning agar model tersebut dapat belajar dari pola dan menghasilkan output yang berguna. Sebelum pelatihan, struktur matematis AI hanyalah sekumpulan lapisan dan angka acak. Melalui pelatihan, model AI mulai terbentuk dengan merespons karakteristik data dan mengadaptasi outputnya sesuai tujuan yang diinginkan. Penting dicatat bahwa tidak semua AI memerlukan pelatihan; AI berbasis aturan yang mengikuti instruksi yang telah ditentukan sebelumnya tidak memerlukan proses ini. Pelatihan bisa memakan biaya besar karena membutuhkan banyak input.
Token
Dalam komunikasi manusia-AI, token adalah segmen data diskrit yang telah diproses atau diproduksi oleh LLM. Token dibuat melalui proses “tokenisasi,” yang memecah data mentah menjadi unit-unit yang dapat diproses oleh LLM. Token dibagi menjadi token masukan (dari kueri pengguna), token keluaran (jawaban LLM), dan token penalaran (untuk tugas yang lebih kompleks). Penggunaan token juga menentukan biaya dalam layanan AI, di mana perusahaan AI sering mengenakan biaya per token.
Pembelajaran Transfer (Transfer Learning)
Pembelajaran transfer adalah teknik di mana model AI yang telah dilatih sebelumnya digunakan sebagai titik awal untuk mengembangkan model baru untuk tugas yang berbeda namun terkait. Teknik ini memungkinkan pengetahuan yang diperoleh dari siklus pelatihan sebelumnya untuk diterapkan kembali, sehingga dapat menghemat waktu dan sumber daya, terutama ketika data untuk tugas baru terbatas. Namun, model yang mengandalkan pembelajaran transfer mungkin masih memerlukan pelatihan tambahan untuk mencapai kinerja optimal dalam domain fokusnya.
Bobot (Weights)
Bobot adalah parameter numerik inti dalam pelatihan AI yang menentukan seberapa besar pentingnya (atau “bobot”) diberikan pada fitur-fitur yang berbeda dalam data pelatihan. Bobot ini membentuk output model AI. Selama pelatihan, bobot yang awalnya ditetapkan secara acak akan disesuaikan seiring model berusaha mencapai output yang lebih akurat. Bobot mencerminkan seberapa besar pengaruh suatu fitur terhadap hasil akhir, berdasarkan dataset yang digunakan.
Relevansi Global: AI dan Indonesia
Perkembangan AI yang pesat, seperti yang dijelaskan dalam glosarium ini, memiliki implikasi mendalam bagi Indonesia. Memahami istilah-istilah kunci seperti AGI, LLM, dan deep learning sangat penting bagi para pembuat kebijakan, akademisi, pelaku industri














