ทีมรักษาความปลอดภัยของ JFrog เพิ่งเผยแพร่รายงานระบุว่ามีโมเดล AI ML ที่เป็นอันตรายจำนวนมากบนแพลตฟอร์ม Hugging Face ซึ่งมีจำนวนอย่างน้อย 100 โมเดล ไม่สามารถประเมินความเสี่ยงที่ซ่อนอยู่โดยโมเดลที่เป็นอันตรายเหล่านี้ได้ บางรุ่นมีความสามารถในการรันโค้ดบนเครื่องของเหยื่อ และสร้างแบ็คดอร์ถาวร ซึ่งก่อให้เกิดภัยคุกคามร้ายแรงต่อความปลอดภัยของข้อมูลผู้ใช้ นักวิจัยได้ค้นพบว่าโมเดลที่เป็นอันตรายที่สร้างขึ้นโดยใช้เฟรมเวิร์ก PyTorch และ Tensorflow Keras เช่นโมเดลชื่อ "baller423" สามารถสร้าง Reverse Shell บนโฮสต์เป้าหมายเพื่อให้ได้การควบคุมระยะไกล แม้ว่าโมเดลที่เป็นอันตรายบางรายการอาจถูกอัปโหลดเพื่อวัตถุประสงค์ในการวิจัยด้านความปลอดภัย แต่มีจุดประสงค์ในการค้นหาช่องโหว่และรับเงินรางวัล แต่สิ่งนี้ไม่ได้ลดอันตรายที่อาจเกิดขึ้น
ทีมรักษาความปลอดภัยของ JFrog ค้นพบโมเดล AI ML ที่เป็นอันตรายอย่างน้อย 100 แบบบนแพลตฟอร์ม Hugging Face บางรุ่นสามารถรันโค้ดบนเครื่องของเหยื่อได้ โดยจัดให้มีแบ็คดอร์ถาวร นักวิจัยด้านความปลอดภัยได้ค้นพบว่ามีโมเดล PyTorch และ Tensorflow Keras ที่มีฟังก์ชันที่เป็นอันตรายบนแพลตฟอร์ม ตัวอย่างเช่น โมเดล baller423 ที่ผู้ใช้อัปโหลดสามารถสร้าง Reverse Shell บนโฮสต์ที่ระบุได้ โมเดลที่เป็นอันตรายบางรายการอาจถูกอัปโหลดเพื่อวัตถุประสงค์ในการวิจัยด้านความปลอดภัยเพื่อค้นหาช่องโหว่และรับเงินรางวัลแพลตฟอร์ม Hugging Face ควรเสริมสร้างกลไกการตรวจสอบสำหรับโมเดลที่อัปโหลด เพื่อป้องกันความเสี่ยงด้านความปลอดภัยดังกล่าวอย่างมีประสิทธิภาพ ผู้ใช้ควรเพิ่มความตระหนักด้านความปลอดภัย และใช้โมเดล AI จากแหล่งที่ไม่รู้จักด้วยความระมัดระวังเพื่อหลีกเลี่ยงการโจมตีที่เป็นอันตราย เหตุการณ์นี้เตือนเราอีกครั้งว่าด้วยการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ ปัญหาด้านความปลอดภัยมีความสำคัญมากขึ้นเรื่อยๆ และอุตสาหกรรมจำเป็นต้องทำงานร่วมกันเพื่อสร้างสภาพแวดล้อมทางนิเวศน์วิทยา AI ที่ปลอดภัยและเชื่อถือได้มากขึ้น