Baru-baru ini, tim peneliti Google mengumumkan hasil penelitian yang mengkhawatirkan: mereka berhasil menyerang model turbo GPT-3.5 OpenAI dengan biaya hanya 150 yuan. Metode serangan ini sederhana dan efektif, memerlukan kurang dari 2.000 kueri API untuk mendapatkan informasi penting model. Penemuan ini menyoroti bahwa model bahasa berukuran besar pun mungkin menghadapi ancaman keamanan yang serius, dan juga mendorong kita untuk mengkaji ulang perlunya dan urgensi perlindungan keamanan AI. Hasil penelitian menunjukkan bahwa model bahasa besar tidak dapat dihancurkan, dan mekanisme keamanan perlu terus ditingkatkan untuk menghadapi potensi risiko.
Penelitian terbaru Google mengungkapkan metode yang berhasil untuk menyerang model OpenAI GPT-3.5-turbo, dengan biaya hanya 150 yuan. Serangannya sederhana dan efektif, dan informasi penting dapat diperoleh dengan kurang dari 2.000 kueri API. Eksperimen ini mengingatkan bahwa model bahasa berukuran besar pun mungkin menghadapi ancaman keamanan, dan OpenAI telah mengambil langkah-langkah untuk memodifikasi model API guna mencegah serangan lebih lanjut.
Penelitian Google telah memberikan peringatan bagi bidang keamanan AI dan juga mendorong upaya perusahaan seperti OpenAI untuk memperkuat keamanan model. Di masa depan, penelitian dan pengembangan langkah-langkah keamanan dan mekanisme pertahanan yang lebih kuat akan menjadi bagian integral dari pengembangan AI untuk memastikan penerapan teknologi AI yang aman dan andal.