Penyebab Kecerdasan Buatan Sering “Berhalusinasi”
Kecerdasan buatan (AI) yang berbasis bahasa, seperti GPT-5 dan ChatGPT, sering kali memberikan jawaban yang terdengar masuk akal namun sebenarnya salah. Fenomena ini dikenal sebagai halusinasi. Meskipun kualitas model AI semakin meningkat, halusinasi tetap menjadi tantangan yang sulit diatasi.
Dalam sebuah artikel resmi, OpenAI menjelaskan bahwa halusinasi terjadi ketika model menghasilkan pernyataan yang tampak logis, tetapi pada kenyataannya tidak benar. Penjelasan ini menunjukkan bahwa meskipun model AI terus berkembang, masalah ini masih menjadi isu utama dalam pengembangan teknologi tersebut.
Sebagai contoh, dalam eksperimen tertentu, chatbot AI ditanya tentang judul disertasi Ph.D atau tanggal lahir Adam Tauman Kalai—salah satu penulis makalah. Jawaban yang diberikan oleh model berbeda-beda dan semua salah. Hal ini menunjukkan bagaimana model bisa sangat percaya diri dalam memberikan jawaban, padahal jawaban tersebut tidak benar.
Menurut penelitian OpenAI, sumber utama masalah ini berasal dari proses pre training, yaitu saat model dilatih untuk menebak kata selanjutnya dari teks yang sangat besar tanpa adanya label benar atau salah. Model hanya belajar dari contoh bahasa yang fasih, bukan dari data yang menyatakan apakah pernyataan itu fakta atau fiksi.
Untuk pola-pola rutin seperti ejaan atau tanda baca, skala data bisa membantu mengatasi kesalahan. Namun, untuk fakta unik dan jarang, seperti tanggal lahir seseorang atau data lain yang tidak umum, AI akan “menebak” karena tidak ada pola yang bisa diikuti.
Selain itu, tantangan lainnya terletak pada cara penilaian keakuratan model. Sistem evaluasi saat ini cenderung memberi insentif agar model tetap menebak daripada jujur mengaku “tidak tahu”. Skema ini mirip dengan ujian pilihan ganda di mana menebak tetap memiliki peluang benar, sedangkan mengosongkan jawaban pasti mendapatkan nol poin. Akibatnya, model terus didorong untuk melakukan “tebakan percaya diri”, bukan menahan diri saat tidak yakin.
Para peneliti OpenAI menawarkan solusi untuk mengatasi masalah ini. Mereka menyarankan untuk mengubah paradigma evaluasi, di mana sistem penilaian sebaiknya memberi penalti lebih besar pada jawaban salah yang diucapkan dengan yakin, dan memberikan “kredit parsial” untuk ekspresi ketidakyakinan yang tepat. Dengan demikian, model akan terlatih untuk memilih diam saat memang tidak tahu, sehingga mengurangi kecenderungan halusinasi.
Peneliti menutup makalahnya dengan pesan penting bahwa selama evaluasi dan leaderboard AI masih memberi hadiah pada “tebakan beruntung”, model AI akan terus belajar untuk menebak daripada jujur mengakui ketidaktahuan. Hal ini menunjukkan bahwa perubahan dalam sistem evaluasi sangat penting untuk mengurangi risiko halusinasi dalam model AI.

Pasang macOS di Luar MacBook
10 Prompt Gemini AI yang Cocok untuk Profil, Ubah Foto Biasa Jadi Potret Keren Mirip Asli
10 Trik Sederhana Hentikan Iklan di HP Android, Termasuk Samsung dan Xiaomi
Cara Mengatasi Blokir WhatsApp Akibat Hacker dan Spam
Xiaomi Rilis HyperOS 3 Global, Ini Daftar Perangkat yang Dapat Lebih Dahulu
10 Tips Mengosongkan Memori HP Tanpa Hapus Aplikasi
Jangan Khawatir: 4 Cara Pulihkan Foto Terhapus di HP Tanpa Aplikasi
Aplikasi Chat Alternatif WhatsApp Menjamur, Ini Penyebabnya