7 Celah Keamanan ChatGPT yang Rentan Disusupi Data

Penelitian Mengungkap Celah Keamanan pada ChatGPT yang Berpotensi Membocorkan Data Pengguna

Para peneliti keamanan siber dari Tenable Research menemukan sejumlah celah keamanan dalam sistem ChatGPT yang membuatnya rentan terhadap pencurian data. Dalam laporan bertajuk HackedGPT: Novel AI Vulnerabilities Open the Door for Private Data Leakage, ditemukan bahwa celah ini memungkinkan penyerang mencuri informasi dari memori ChatGPT dan riwayat percakapan pengguna tanpa disadari. Penelitian tersebut juga menunjukkan adanya kerentanan yang muncul dari cara ChatGPT memproses input dan konteks percakapan.

Berikut tujuh jenis vulnerabilitas atau celah keamanan pada ChatGPT yang berpotensi membocorkan data pribadi pengguna berdasarkan temuan peneliti Tenable Research:

Para peneliti menilai, ada ratusan juta pengguna ChatGPT berpotensi terdampak karena mereka menggunakan model ini setiap hari untuk berbagai kebutuhan. Serangan dapat menyebabkan kebocoran data pribadi yang tersimpan dalam fitur memory; bypass sistem keamanan ChatGPT; dan serangan berkelanjutan yang tetap aktif lintas sesi percakapan.

ChatGPT disebut memiliki akses ke berbagai alat internal, termasuk web tool untuk menjelajah internet, search command untuk pencarian, dan memory feature untuk mengingat informasi pengguna. Ketika fitur-fitur ini berinteraksi dengan sumber eksternal seperti situs web atau dokumen online, penyerang dapat menyisipkan instruksi tersembunyi (prompt injection). Akibatnya, ChatGPT bisa saja menjalankan perintah yang tidak diinginkan dan mengirimkan data pribadi pengguna ke server pihak ketiga.

Para peneliti Tenable Research juga telah mengungkapkan semua masalah ini kepada OpenAI dan bekerja sama langsung untuk memperbaiki beberapa celah keamanan tersebut.

Exit mobile version