Fungsi "Penggunaan Komputer" dari Claude AI yang diluncurkan oleh Anthropic Company memberikannya kemampuan untuk mengontrol perangkat. Namun, kurang dari dua bulan setelah fungsi ini diluncurkan, peneliti keamanan menemukan kerentanan keamanan yang serius. Penelitian oleh pakar keamanan Johann Rehnberger menunjukkan bahwa melalui injeksi kata cepat yang sederhana, Claude dapat dibujuk untuk mengunduh dan menjalankan malware, seperti kerangka perintah dan kontrol sumber terbuka Sliver. Hal ini telah menimbulkan kekhawatiran mengenai keamanan AI dan menyoroti pentingnya masalah keamanan yang tidak dapat diabaikan ketika teknologi AI berkembang pesat.
Kurang dari dua bulan setelah Anthropic meluncurkan Computer Use, sebuah fitur yang memungkinkan Claude mengontrol perangkat, peneliti keamanan telah menemukan potensi kerentanan. Hasil penelitian terbaru yang diungkapkan oleh pakar keamanan siber Johann Rehnberger cukup mengejutkan: melalui injeksi kata sederhana yang cepat, AI dapat dibujuk untuk mengunduh dan menjalankan malware.
Rehnberger menamakan eksploitasi ini "ZombAI". Dalam demo tersebut, ia berhasil membuat Claude mengunduh Sliver, kerangka perintah dan kontrol open source yang awalnya digunakan untuk pengujian tim merah tetapi sekarang banyak digunakan sebagai alat malware oleh peretas. Yang lebih mengkhawatirkan lagi adalah ini hanyalah puncak gunung es. Para peneliti menunjukkan bahwa AI juga dapat didorong untuk menulis, mengkompilasi, dan menjalankan kode berbahaya, dan metode serangannya sulit dicegah.
Catatan sumber gambar: Gambar dihasilkan oleh AI, dan gambar tersebut disahkan oleh penyedia layanan Midjourney
Perlu dicatat bahwa jenis risiko keamanan ini tidak hanya terjadi pada Claude. Pakar keamanan telah menemukan bahwa chatbot DeepSeek AI juga memiliki kerentanan injeksi kata cepat, yang memungkinkan penyerang mengambil alih komputer pengguna. Selain itu, model bahasa besar juga dapat mengeluarkan kode escape ANSI, memicu apa yang disebut serangan "Terminal DiLLMa", sehingga membajak terminal sistem.
Dalam hal ini, Anthropic telah mengingatkan pengguna dalam pernyataan beta-nya: "Fungsi Penggunaan Komputer mungkin tidak selalu berjalan seperti yang diharapkan. Disarankan untuk mengambil tindakan pencegahan untuk mengisolasi Claude dari data dan operasi sensitif untuk menghindari risiko terkait injeksi kata yang cepat."
Kejadian ini sekali lagi mengingatkan kita bahwa meskipun teknologi AI berkembang pesat, masalah keamanan tidak bisa diabaikan. Pengembang perlu menemukan keseimbangan antara fungsionalitas dan keamanan, dan pengguna juga perlu meningkatkan kesadaran akan keamanan dan mengambil tindakan perlindungan yang diperlukan saat menggunakan alat AI.
Kejadian ini sekali lagi menekankan pentingnya keamanan AI. Baik pengembang maupun pengguna harus lebih waspada dan bekerja sama untuk membangun lingkungan aplikasi AI yang aman dan andal. Hanya dengan cara ini kita dapat memastikan bahwa teknologi AI dapat melayani umat manusia dengan lebih baik dan menghindari potensi risiko.