OpenAI Ungkap Akar Masalah Halusinasi Chatbot, Sulit Dihilangkan

Penyebab Kecerdasan Buatan Sering “Berhalusinasi”

Kecerdasan buatan (AI) yang berbasis bahasa, seperti GPT-5 dan ChatGPT, sering kali memberikan jawaban yang terdengar masuk akal namun sebenarnya salah. Fenomena ini dikenal sebagai halusinasi. Meskipun kualitas model AI semakin meningkat, halusinasi tetap menjadi tantangan yang sulit diatasi.

Dalam sebuah artikel resmi, OpenAI menjelaskan bahwa halusinasi terjadi ketika model menghasilkan pernyataan yang tampak logis, tetapi pada kenyataannya tidak benar. Penjelasan ini menunjukkan bahwa meskipun model AI terus berkembang, masalah ini masih menjadi isu utama dalam pengembangan teknologi tersebut.

Sebagai contoh, dalam eksperimen tertentu, chatbot AI ditanya tentang judul disertasi Ph.D atau tanggal lahir Adam Tauman Kalai—salah satu penulis makalah. Jawaban yang diberikan oleh model berbeda-beda dan semua salah. Hal ini menunjukkan bagaimana model bisa sangat percaya diri dalam memberikan jawaban, padahal jawaban tersebut tidak benar.

Menurut penelitian OpenAI, sumber utama masalah ini berasal dari proses pre training, yaitu saat model dilatih untuk menebak kata selanjutnya dari teks yang sangat besar tanpa adanya label benar atau salah. Model hanya belajar dari contoh bahasa yang fasih, bukan dari data yang menyatakan apakah pernyataan itu fakta atau fiksi.

Untuk pola-pola rutin seperti ejaan atau tanda baca, skala data bisa membantu mengatasi kesalahan. Namun, untuk fakta unik dan jarang, seperti tanggal lahir seseorang atau data lain yang tidak umum, AI akan “menebak” karena tidak ada pola yang bisa diikuti.

Selain itu, tantangan lainnya terletak pada cara penilaian keakuratan model. Sistem evaluasi saat ini cenderung memberi insentif agar model tetap menebak daripada jujur mengaku “tidak tahu”. Skema ini mirip dengan ujian pilihan ganda di mana menebak tetap memiliki peluang benar, sedangkan mengosongkan jawaban pasti mendapatkan nol poin. Akibatnya, model terus didorong untuk melakukan “tebakan percaya diri”, bukan menahan diri saat tidak yakin.

Para peneliti OpenAI menawarkan solusi untuk mengatasi masalah ini. Mereka menyarankan untuk mengubah paradigma evaluasi, di mana sistem penilaian sebaiknya memberi penalti lebih besar pada jawaban salah yang diucapkan dengan yakin, dan memberikan “kredit parsial” untuk ekspresi ketidakyakinan yang tepat. Dengan demikian, model akan terlatih untuk memilih diam saat memang tidak tahu, sehingga mengurangi kecenderungan halusinasi.

Peneliti menutup makalahnya dengan pesan penting bahwa selama evaluasi dan leaderboard AI masih memberi hadiah pada “tebakan beruntung”, model AI akan terus belajar untuk menebak daripada jujur mengakui ketidaktahuan. Hal ini menunjukkan bahwa perubahan dalam sistem evaluasi sangat penting untuk mengurangi risiko halusinasi dalam model AI.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *


Back to top button
Close

Adblock Terdeteksi

LidahTekno.com didukung oleh iklan Google Adsense untuk menyediakan konten bagi Anda.Mohon pertimbangkan untuk menonaktifkan AdBlocker atau menambahkan kami ke dalam whitelist Anda agar kami dapat terus memberikan informasi dan tips teknologi terbaik.Terima kasih atas dukungan Anda!