Baru-baru ini, ancaman baru muncul di bidang keamanan jaringan: model pembelajaran mesin yang berbahaya. Para peneliti menemukan 100 model serupa di platform Hugging Face, yang dapat digunakan untuk memasukkan kode berbahaya ke perangkat pengguna dan melakukan operasi berbahaya menggunakan teknologi seperti PyTorch. Hal ini menyoroti tantangan berat yang dihadapi di bidang keamanan AI dan mengingatkan kita untuk tetap waspada terhadap keamanan model AI. Munculnya model AI yang berbahaya tidak hanya berdampak pada keamanan data pengguna, namun juga dapat menimbulkan risiko sistemik yang lebih luas. Industri perlu bekerja sama untuk memperkuat audit keamanan dan mekanisme perlindungan model AI.
Para peneliti menemukan 100 model pembelajaran mesin berbahaya pada platform Hugging Face AI, yang memungkinkan penyerang memasukkan kode berbahaya ke mesin pengguna. Model AI berbahaya menggunakan metode seperti PyTorch untuk mengeksekusi kode berbahaya, sehingga memperburuk risiko keamanan. Untuk mengurangi risiko, pengembang AI harus menggunakan alat baru untuk meningkatkan keamanan model AI. Model berbahaya yang ditemukan menyoroti risiko model AI berbahaya terhadap lingkungan pengguna, sehingga memerlukan kewaspadaan terus-menerus dan peningkatan keamanan.Masalah keamanan AI menjadi semakin menonjol, sehingga mengharuskan pengembang AI, penyedia platform, dan pengguna untuk bekerja sama membangun mekanisme keamanan yang lebih lengkap untuk bersama-sama menangani risiko yang ditimbulkan oleh model AI yang berbahaya. Hanya dengan memperkuat tinjauan keamanan model dan mengembangkan teknologi deteksi dan pertahanan yang lebih efektif, kita dapat memastikan keselamatan pengguna dan mendorong perkembangan teknologi AI yang sehat. Hanya melalui kolaborasi multi-pihak kita dapat membangun lingkungan ekologi AI yang lebih aman dan andal.