7 Celah Keamanan ChatGPT yang Rentan Disusupi Data

Penelitian Mengungkap Celah Keamanan pada ChatGPT yang Berpotensi Membocorkan Data Pengguna
Para peneliti keamanan siber dari Tenable Research menemukan sejumlah celah keamanan dalam sistem ChatGPT yang membuatnya rentan terhadap pencurian data. Dalam laporan bertajuk HackedGPT: Novel AI Vulnerabilities Open the Door for Private Data Leakage, ditemukan bahwa celah ini memungkinkan penyerang mencuri informasi dari memori ChatGPT dan riwayat percakapan pengguna tanpa disadari. Penelitian tersebut juga menunjukkan adanya kerentanan yang muncul dari cara ChatGPT memproses input dan konteks percakapan.
Berikut tujuh jenis vulnerabilitas atau celah keamanan pada ChatGPT yang berpotensi membocorkan data pribadi pengguna berdasarkan temuan peneliti Tenable Research:
Indirect prompt injection
Serangan disisipkan melalui komentar atau konten tersembunyi di situs web yang diminta pengguna untuk diringkas. Sehingga saat ChatGPT membaca situs yang diakses tersebut, instruksi berbahaya juga ikut dijalankan.Zero-click prompt injection
Saat pengguna mengajukan pertanyaan sederhana, ChatGPT kemudian menjelajahi situs berbahaya yang sudah diindeks, tanpa perlu klik tambahan.One-click prompt injection
Penyerang bisa membuat tautan berbahaya yang terlihat tidak mencurigakan, seperti https://chatgpt.com/?q={Prompt}. Saat pengguna mengklik tautan tersebut, ChatGPT otomatis menjalankan perintah berbahaya yang telah diatur sebelumnya.Bypass mekanisme keamanan
Fitur url_safe milik OpenAI seharusnya memiliki fungsi utama untuk memblokir tautan berbahaya. Namun, peneliti menemukan celah melalui domain bing.com/ck/a yang dapat digunakan untuk melewati sistem penyaringan dan mencuri data huruf demi huruf.Conversation injection
Melalui teknik ini, SearchGPT dapat menulis instruksi tersembunyi dalam konteks percakapan, lalu ChatGPT membacanya seolah berasal dari pengguna. Akibatnya, ChatGPT justru menyuntik dirinya sendiri dengan perintah berbahaya.Malicious content hiding
Instruksi berbahaya dapat disembunyikan di dalam code block markdown (cara menampilkan kode atau teks yang telah diformat dalam dokumen Markdown). Bahayanya, pengguna tidak melihat teks tersembunyi itu, tetapi ChatGPT tetap membacanya dan menjalankan perintah tersebut.Memory injection
Penyerang dapat memaksa ChatGPT memperbarui memorinya agar selalu menjalankan instruksi tertentu. Serangan ini bisa sangat berbahaya karena bersifat persisten dan dapat berlangsung meski sesi percakapan sudah berakhir.
Para peneliti menilai, ada ratusan juta pengguna ChatGPT berpotensi terdampak karena mereka menggunakan model ini setiap hari untuk berbagai kebutuhan. Serangan dapat menyebabkan kebocoran data pribadi yang tersimpan dalam fitur memory; bypass sistem keamanan ChatGPT; dan serangan berkelanjutan yang tetap aktif lintas sesi percakapan.
ChatGPT disebut memiliki akses ke berbagai alat internal, termasuk web tool untuk menjelajah internet, search command untuk pencarian, dan memory feature untuk mengingat informasi pengguna. Ketika fitur-fitur ini berinteraksi dengan sumber eksternal seperti situs web atau dokumen online, penyerang dapat menyisipkan instruksi tersembunyi (prompt injection). Akibatnya, ChatGPT bisa saja menjalankan perintah yang tidak diinginkan dan mengirimkan data pribadi pengguna ke server pihak ketiga.
Para peneliti Tenable Research juga telah mengungkapkan semua masalah ini kepada OpenAI dan bekerja sama langsung untuk memperbaiki beberapa celah keamanan tersebut.











