Ada artikel menarik tentang sebuah celah keamanan yang ditemukan di aplikasi ChatGPT OpenAI untuk macOS. Meski sekarang sudah diperbaiki, celah ini sempat bisa dimanfaatkan oleh penyerang untuk memasang spyware jangka panjang di dalam memori aplikasi. Celah ini dinamai “SpAIware” oleh peneliti keamanan Johann Rehberger. Dia menemukan bahwa celah ini bisa digunakan untuk mencuri data secara terus-menerus dari input yang diberikan pengguna dan respons yang dihasilkan ChatGPT, termasuk sesi obrolan di masa depan.
Celah ini berpusat pada fitur yang disebut “memory,” yang diperkenalkan OpenAI awal tahun ini. Fitur ini dirancang untuk membantu ChatGPT mengingat informasi tertentu di berbagai obrolan, sehingga pengguna tidak perlu mengulang informasi yang sama. Pengguna juga bisa menginstruksikan program untuk melupakan memori tertentu jika diinginkan. OpenAI menjelaskan bahwa “Memori ChatGPT berkembang seiring interaksi Anda dan tidak terkait dengan percakapan tertentu,” jadi menghapus obrolan tidak otomatis menghapus memori tersebut; pengguna harus menghapus memori secara manual.
Penyerang bisa memanfaatkan teknik injeksi prompt tidak langsung untuk memanipulasi memori ini, menyematkan informasi palsu atau instruksi berbahaya. Ini memungkinkan instruksi berbahaya tetap ada di seluruh percakapan, yang berarti semua interaksi baru akan mengandung instruksi penyerang dan terus-menerus mengirim semua pesan obrolan dan balasan kepada penyerang. Jadi, celah ini cukup berbahaya karena bisa memengaruhi banyak sesi obrolan.
Dalam skenario serangan yang dibayangkan, pengguna bisa saja tertipu untuk mengunjungi situs web berbahaya atau mengunduh dokumen yang, ketika dianalisis menggunakan ChatGPT, akan memperbarui memorinya dengan instruksi untuk mengirim percakapan di masa depan ke server yang dikendalikan penyerang. Data ini kemudian bisa diambil oleh penyerang di luar sesi obrolan tunggal.
Setelah mengetahui celah ini, OpenAI segera bertindak dengan merilis ChatGPT versi 1.2024.247, yang berhasil menutup celah tersebut. Pakar keamanan Johann Rehberger menyarankan agar pengguna ChatGPT secara rutin memeriksa memori yang disimpan sistem untuk memastikan tidak ada entri yang mencurigakan atau salah, dan membersihkannya jika perlu. Dia mencatat bahwa rantai serangan ini cukup menarik untuk dipelajari dan menunjukkan bahaya dari memori jangka panjang yang ditambahkan secara otomatis ke sistem, baik dari sudut pandang informasi palsu maupun komunikasi terus-menerus dengan server yang dikendalikan penyerang.
Selain cerita ini, artikel tersebut juga membahas teknik jailbreaking AI baru yang dinamai MathPrompt. Teknik ini memanfaatkan kemampuan canggih model bahasa besar (LLM) dalam matematika simbolik untuk mengatasi mekanisme keamanan mereka. MathPrompt menggunakan dua langkah: pertama, mengubah prompt bahasa alami yang berbahaya menjadi masalah matematika simbolik, dan kemudian menyajikan prompt yang dikodekan secara matematis ini ke LLM target. Para peneliti menemukan bahwa pendekatan ini menghasilkan output berbahaya 73,6% dari waktu rata-rata ketika diuji terhadap 13 LLM mutakhir, dibandingkan dengan sekitar 1% dengan prompt berbahaya yang tidak dimodifikasi.
Tidak ketinggalan, artikel ini juga menyebutkan fitur Koreksi baru dari Microsoft untuk output AI. Fitur ini memungkinkan koreksi ketidakakuratan, atau halusinasi, yang terdeteksi dalam konten yang dihasilkan AI. Fitur Koreksi Microsoft ini dibangun di atas fitur Deteksi Groundedness yang ada dan memungkinkan Azure AI Content Safety untuk mengidentifikasi dan memperbaiki halusinasi secara real-time sebelum pengguna menemukannya.
Secara keseluruhan, artikel ini mengingatkan kita akan pentingnya tetap waspada dan proaktif dalam menggunakan teknologi AI. Terutama terkait potensi celah keamanan dan perlunya mekanisme keamanan yang kuat untuk melindungi data pengguna. Jadi, mari kita terus berhati-hati dan bijak dalam menggunakan teknologi ini!