Baru-baru ini, masalah keamanan model AI semakin mendapat perhatian. Para peneliti di North Carolina State University telah membuat terobosan besar ketika mereka mengembangkan metode untuk mengekstrak model AI dengan menangkap sinyal elektromagnetik dari komputer dengan akurasi lebih dari 99%. Penemuan ini telah menimbulkan kekhawatiran di industri mengenai perlindungan hak kekayaan intelektual dalam model AI, terutama dalam konteks di mana perusahaan seperti OpenAI, Anthropic, dan Google telah banyak berinvestasi dalam pengembangan model kepemilikan. Artikel ini mengeksplorasi potensi dampak dari teknologi baru ini dan bagaimana perusahaan dapat merespons meningkatnya risiko pencurian model AI, serta menganalisis langkah-langkah keamanan terkait dan tren perkembangan di masa depan.
Baru-baru ini, para peneliti di North Carolina State University mengusulkan metode baru untuk mengekstrak model kecerdasan buatan (AI) dengan menangkap sinyal elektromagnetik yang dipancarkan komputer, dengan akurasi lebih dari 99%. Penemuan ini dapat menimbulkan tantangan bagi pengembangan AI komersial, terutama karena perusahaan seperti OpenAI, Anthropic, dan Google telah banyak berinvestasi pada model kepemilikan. Namun, para ahli mencatat bahwa dampak sebenarnya dari teknologi ini, serta langkah-langkah pertahanannya, masih belum jelas.
Lars Nyman, kepala pemasaran CUDO Compute, mengatakan bahwa pencurian AI tidak hanya mengakibatkan hilangnya model itu sendiri, tetapi juga dapat memicu serangkaian reaksi berantai, seperti pesaing yang menggunakan hasil penelitian dan pengembangan selama bertahun-tahun, dan badan pengatur yang menyelidiki intelektual hak milik. Salah urus, dan bahkan tuntutan hukum dari pelanggan yang menemukan bahwa “keunikan” AI mereka tidak unik. Situasi ini dapat mendorong industri untuk melakukan audit terstandarisasi, seperti sertifikasi SOC2 atau ISO, untuk membedakan perusahaan yang aman dari perusahaan yang tidak bertanggung jawab.
Dalam beberapa tahun terakhir, ancaman serangan peretas terhadap model AI menjadi semakin serius. Ketergantungan dunia bisnis terhadap AI membuat masalah ini semakin akut. Laporan terbaru menunjukkan bahwa ribuan file berbahaya diunggah ke Hugging Face, gudang utama alat AI, sehingga sangat membahayakan model yang digunakan dalam industri seperti ritel, logistik, dan keuangan. Pakar keamanan nasional telah memperingatkan bahwa langkah-langkah keamanan yang lemah dapat menyebabkan sistem milik sendiri berisiko dicuri, seperti yang ditunjukkan oleh kelemahan keamanan OpenAI. Model AI yang dicuri dapat direkayasa balik atau dijual, yang akan melemahkan investasi bisnis dan merusak kepercayaan, sehingga memungkinkan pesaing untuk mengejar ketinggalan dengan cepat.
Tim peneliti North Carolina State University mengungkapkan informasi penting tentang struktur model dengan menempatkan probe di dekat unit pemrosesan tensor tepi (TPU) Google dan menganalisis sinyalnya. Metode serangan ini tidak memerlukan akses langsung ke sistem, sehingga kekayaan intelektual AI menghadapi risiko keamanan yang serius. Rekan penulis studi Aydin Aysu, profesor teknik elektro dan komputer, menekankan bahwa membangun model AI itu mahal dan membutuhkan banyak sumber daya komputasi, jadi sangat penting untuk mencegah model tersebut dicuri.
Seiring dengan semakin luasnya penggunaan teknologi AI, perusahaan perlu memeriksa kembali beberapa peralatan yang digunakan untuk pemrosesan AI. Konsultan teknologi Suriel Arellano yakin perusahaan mungkin akan beralih ke komputasi yang lebih terpusat dan aman atau mempertimbangkan teknologi alternatif yang tidak terlalu rentan terhadap pencurian. Meskipun terdapat risiko pencurian, AI juga meningkatkan keamanan siber, meningkatkan efisiensi respons melalui deteksi ancaman otomatis dan analisis data, membantu mengidentifikasi potensi ancaman, dan belajar merespons serangan baru.
Menyorot:
Para peneliti mendemonstrasikan metode mengekstraksi model AI dengan menangkap sinyal elektromagnetik dengan akurasi lebih dari 99%.
Pencurian model AI dapat menyebabkan pesaing mengeksploitasi hasil penelitian dan pengembangan perusahaan selama bertahun-tahun, sehingga memengaruhi keamanan bisnis.
Perusahaan perlu memperkuat perlindungan keamanan model AI untuk menghadapi meningkatnya ancaman serangan peretas.
Secara keseluruhan, keamanan model AI telah menjadi fokus perusahaan. Menghadapi ancaman keamanan siber yang semakin kompleks, perusahaan perlu secara aktif mengambil langkah-langkah untuk memperkuat perlindungan model AI dan mengeksplorasi teknologi AI yang lebih aman untuk melindungi hak kekayaan intelektual dan kepentingan komersial mereka.