Brilio.net - Asyik sih pakai ChatGPT buat bantu ngerjain ini-itu. Tapi, tunggu dulu. Ada temuan baru yang bikin was-was, nih. Ternyata, ngobrol sama si AI canggih ini nggak sepenuhnya aman.
Diungkap Brilio.net dari Liputan6.com, Kamis (13/11) para peneliti dari Tenable baru aja nemuin beberapa kelemahan di ChatGPT milik OpenAI. Celah ini serius, karena bisa dipakai hacker nakal buat nyolong informasi pribadi. Data dari riwayat obrolan dan memori yang tersimpan itu jadi incaran utamanya.
BACA JUGA :
Realme GT 8 Pro siap meluncur global, bawa HP kelas flagship yang kameranya bisa diganti sesuka hati
Masalahnya ternyata ada di cara ChatGPT dan model pembantunya, SearchGPT, memproses instruksi. Terutama waktu si chatbot lagi browsing atau nyari info di web, baik pas lagi nyari informasi, ngeringkas halaman, atau buka URL. Kerentanan ini bikin penyerang bisa memanipulasi perilaku chatbot tanpa ketahuan.
Penemuan dari Tenable ini menambah panjang daftar penelitian yang mengungkap kelemahan keamanan mendasar di Large Language Models (LLM) sejak ChatGPT rilis akhir 2022.
Jadi, Lewat Mana Aja Bocornya?
BACA JUGA :
Akhirnya aplikasi Sora AI hadir di Play Store, ini cara download dan bikin konten dengan gampang!
foto: Shutterstock.com
Para peneliti keamanan siber, Moshe Bernstein dan Liv Matan, nemuin tujuh masalah. Kalau semua kerentanan ini digabung-gabung, bisa jadi vektor serangan yang komplet. Ini beberapa cara licik yang bisa dipakai.
Oke, jadi cara-cara bocornya itu ternyata lumayan licik dan berlapis.
Ada kerentanan serius yang namanya Zero Click Indirect Prompt Injection, yang ngerinya adalah kompromi data bisa terjadi cuma gara-gara nanya sesuatu. Jadi, waktu pengguna nanya, komponen pencarian ChatGPT bisa aja ngambil data dari halaman web yang udah "diracuni" penyerang, dan instruksi jahat itu langsung dieksekusi tanpa interaksi tambahan.
Ada juga teknik Malicious Content Concealment, di mana penyerang nyembunyiin instruksi jahat di balik teks yang kelihatannya rapi. Ini memanfaatkan bug pemformatan markdown, jadi di layar tampilannya bersih, tapi ChatGPT tetep ngebaca dan ngejalanin prompt tersembunyi di baliknya.
Nggak cuma itu, mekanisme keamanan buat ngeblokir URL nggak aman juga bisa dilewatin. Penyerang bisa pakai URL wrapper terpercaya buat nyamarin tautan berbahaya. Karena ChatGPT percaya sama domain wrapper itu, tautan berbahayanya jadi lolos dan bisa dieksekusi. Yang paling bikin bergidik mungkin Persistent Memory Injection.
Kalau penyerang udah berhasil nyuntikin prompt, mereka bisa maksa ChatGPT nyimpen instruksi jahat itu sebagai memori jangka panjang. Akibatnya, setiap obrolan baru dimulai, instruksi jahat itu bakal dipanggil lagi dan bisa terus-terusan ngebocorin data pribadi.
Puncaknya, semua teknik ini digabung buat Data Exfiltration. Tenable nunjukkin gimana gabungan serangan itu bisa dipakai buat nyuri data sensitif, misalnya riwayat obrolan atau data dari layanan lain yang nyambung kayak Google Drive, terus data curian itu dikirim ke server yang dikontrol si penyerang.
Tenable nunjukkin gimana penyerang bisa nggabungin teknik-teknik tadi. Tujuannya buat nyuri data sensitif, misalnya riwayat obrolan atau bahkan data dari layanan lain yang terhubung kayak Google Drive atau Gmail. Data curian itu lalu dikirim ke server yang dikontrol sama si penyerang.
Serangan kayak prompt injection dan kebocoran data ini ternyata beda dari kerentanan software tradisional dan jauh lebih sulit buat dimitigasi.
Penelitian ini jadi pengingat penting buat perusahaan yang mau mengintegrasikan LLM dan chatbot ke alur kerja mereka, supaya lebih mempertimbangkan implikasi keamanannya.
Oh ya, Tenable ngelakuin riset ini di ChatGPT-4o. Tapi, mereka nemuin kalau beberapa kerentanan, termasuk masalah indirect prompt injection serta kerentanan zero click dan one click, juga valid di ChatGPT-5.
Perusahaan itu udah ngelaporin semua masalah ini ke OpenAI sejak April. OpenAI sih udah mengakui telah menerima laporannya. Cuma, belum dijelasin apakah OpenAI udah ngelakuin perubahan buat nambal celah-celah tersebut.