Tim keamanan JFrog baru-baru ini merilis laporan yang menyatakan bahwa ada sejumlah besar model AI ML berbahaya di platform Hugging Face, setidaknya berjumlah 100. Risiko yang disembunyikan oleh model jahat ini tidak dapat dianggap remeh. Beberapa model bahkan memiliki kemampuan untuk mengeksekusi kode pada mesin korban dan membuat pintu belakang yang persisten, sehingga menimbulkan ancaman serius terhadap keamanan data pengguna. Para peneliti telah menemukan bahwa model jahat yang dibangun menggunakan kerangka kerja PyTorch dan Tensorflow Keras, seperti model bernama "baller423", dapat membuat shell terbalik pada host target untuk mencapai kendali jarak jauh. Meskipun beberapa model jahat mungkin diunggah untuk tujuan penelitian keamanan, dengan tujuan menemukan kerentanan dan mendapatkan keuntungan, hal ini tidak mengurangi potensi bahayanya.
Tim keamanan JFrog menemukan setidaknya 100 model AI ML berbahaya di platform Hugging Face. Beberapa model dapat mengeksekusi kode pada mesin korban, menyediakan pintu belakang yang persisten. Peneliti keamanan telah menemukan bahwa ada model PyTorch dan Tensorflow Keras dengan fungsi berbahaya di platform, misalnya model baller423 yang diunggah oleh pengguna dapat membuat shell terbalik pada host yang ditentukan. Beberapa model berbahaya mungkin diunggah untuk tujuan penelitian keamanan guna menemukan kerentanan dan mendapatkan hadiah.Platform Hugging Face harus memperkuat mekanisme peninjauan model yang diunggah untuk secara efektif mencegah risiko keamanan tersebut. Pengguna juga harus meningkatkan kesadaran keamanan mereka dan menggunakan model AI dari sumber yang tidak dikenal dengan hati-hati untuk menghindari serangan berbahaya. Kejadian ini sekali lagi mengingatkan kita bahwa dengan berkembangnya teknologi kecerdasan buatan, masalah keamanan menjadi semakin menonjol, dan industri perlu bekerja sama untuk membangun lingkungan ekologi AI yang lebih aman dan andal.