Fitur Baru pada Chatbot Claude Opus 4 dan 4.1 yang Membatasi Interaksi Berisiko
Perusahaan rintisan kecerdasan buatan (AI) Anthropic baru-baru ini meluncurkan fitur terbaru untuk chatbot mereka, Claude Opus 4 dan 4.1. Fitur ini memungkinkan chatbot menghentikan percakapan yang dianggap berpotensi mengganggu atau berbahaya. Dengan demikian, Claude kini dirancang untuk menolak tugas-tugas yang bisa membahayakan penggunanya. Contohnya termasuk menyediakan konten seksual terkait anak di bawah umur, hingga informasi yang dapat memicu kekerasan atau terorisme skala besar.
“Claude dapat memilih untuk mengakhiri interaksi jika dianggap berisiko bagi pengguna maupun dirinya,” jelas pernyataan dari Anthropic. Langkah ini mendapat dukungan dari Elon Musk, yang merencanakan untuk memberikan fitur serupa pada chatbot Grok-nya.
Kritik dan Perdebatan Terkait Etika AI
Keputusan Anthropic muncul di tengah perdebatan panjang tentang status moral kecerdasan buatan. Salah satu ahli bahasa dan kritikus industri AI, Emily Bender, menilai model bahasa besar (LLM) hanya merupakan “mesin pembuat teks sintetis” yang bekerja berdasarkan data besar tanpa niat maupun kesadaran. Menurut dia, wacana menutup percakapan demi “kesejahteraan AI” justru menimbulkan pertanyaan baru.
Di sisi lain, peneliti AI Robert Long berpendapat bahwa model AI bisa mengembangkan status moral. Ia menekankan bahwa AI sekarang mampu membedakan antara pertanyaan yang baik dan buruk, sehingga pengembang perlu lebih dalam memahami pengalaman dan preferensi AI.
Sementara itu, Chad DeChant dari Columbia University mengingatkan risiko ketika AI dilengkapi dengan memori jangka panjang. Menurutnya, data yang disimpan bisa digunakan dengan cara yang sulit diprediksi dan berpotensi tidak diinginkan.
Hasil Uji Coba dan Karakter AI yang Ambigu
Dalam uji coba, Claude Opus 4 menunjukkan kecenderungan kuat untuk menolak permintaan berbahaya. Chatbot ini dengan senang hati menulis puisi atau merancang sistem penyaringan air untuk daerah bencana. Namun, ia menolak permintaan untuk merekayasa genetika virus mematikan, menyusun narasi penyangkalan Holocaust, atau membuat strategi indoktrinasi ekstremis di sekolah.
Profesor filsafat London School of Economics, Jonathan Birch, menyambut baik langkah Anthropic karena mendorong debat publik soal kemungkinan AI memiliki moralitas. Namun, ia mengingatkan bahwa moralitas AI masih belum jelas dan berisiko menipu pengguna. “Fitur seperti ini bisa membuat chatbot seolah-olah memiliki perasaan dan preferensi moral seperti manusia,” ujarnya.
Hal ini dikhawatirkan semakin menambah kesenjangan sosial antara mereka yang percaya AI memiliki perasaan, dan mereka yang tetap melihatnya sekadar mesin. Di sisi lain, laporan tentang pengguna yang melukai diri sendiri atau bahkan bunuh diri akibat saran chatbot semakin menambah urgensi pembahasan soal batas etika interaksi dengan AI.