เมื่อเร็ว ๆ นี้ ภัยคุกคามใหม่ได้เกิดขึ้นในด้านการรักษาความปลอดภัยเครือข่าย: โมเดลการเรียนรู้ของเครื่องที่เป็นอันตราย นักวิจัยค้นพบโมเดลดังกล่าวกว่า 100 โมเดลบนแพลตฟอร์ม Hugging Face ซึ่งอาจใช้ในการฉีดโค้ดที่เป็นอันตรายบนอุปกรณ์ของผู้ใช้ และดำเนินการที่เป็นอันตรายโดยใช้เทคโนโลยี เช่น PyTorch สิ่งนี้เน้นให้เห็นถึงความท้าทายร้ายแรงที่ต้องเผชิญกับความปลอดภัยของ AI และเตือนให้เรายังคงระมัดระวังอย่างมากเกี่ยวกับความปลอดภัยของโมเดล AI การเกิดขึ้นของโมเดล AI ที่เป็นอันตรายไม่เพียงแต่ส่งผลต่อความปลอดภัยของข้อมูลผู้ใช้เท่านั้น แต่ยังอาจก่อให้เกิดความเสี่ยงเชิงระบบในวงกว้างอีกด้วย อุตสาหกรรมจำเป็นต้องทำงานร่วมกันเพื่อเสริมสร้างกลไกการตรวจสอบความปลอดภัยของและการป้องกันของโมเดล AI
นักวิจัยค้นพบโมเดลการเรียนรู้ของเครื่องที่เป็นอันตราย 100 รูปแบบบนแพลตฟอร์ม Hugging Face AI ซึ่งอาจทำให้ผู้โจมตีสามารถแทรกโค้ดที่เป็นอันตรายลงในเครื่องของผู้ใช้ได้ โมเดล AI ที่เป็นอันตรายใช้วิธีการเช่น PyTorch เพื่อรันโค้ดที่เป็นอันตราย ซึ่งเพิ่มความเสี่ยงด้านความปลอดภัย เพื่อลดความเสี่ยง นักพัฒนา AI ควรใช้เครื่องมือใหม่เพื่อปรับปรุงความปลอดภัยของโมเดล AI โมเดลที่เป็นอันตรายที่ถูกค้นพบเน้นย้ำถึงความเสี่ยงของโมเดล AI ที่เป็นอันตรายต่อสภาพแวดล้อมของผู้ใช้ ซึ่งจำเป็นต้องมีการเฝ้าระวังอย่างต่อเนื่องและเพิ่มความปลอดภัยปัญหาด้านความปลอดภัยของ AI กำลังทวีความสำคัญมากขึ้น โดยกำหนดให้นักพัฒนา AI ผู้ให้บริการแพลตฟอร์ม และผู้ใช้ต้องทำงานร่วมกันเพื่อสร้างกลไกความปลอดภัยที่สมบูรณ์ยิ่งขึ้น เพื่อร่วมกันจัดการกับความเสี่ยงที่เกิดจากโมเดล AI ที่เป็นอันตราย มีเพียงการเสริมสร้างการตรวจสอบความปลอดภัยของแบบจำลองและพัฒนาเทคโนโลยีการตรวจจับและการป้องกันที่มีประสิทธิภาพมากขึ้นเท่านั้นที่ทำให้เรามั่นใจในความปลอดภัยของผู้ใช้และส่งเสริมการพัฒนาที่ดีของเทคโนโลยี AI มีเพียงการทำงานร่วมกันหลายฝ่ายเท่านั้นที่เราสามารถสร้างสภาพแวดล้อมทางนิเวศวิทยา AI ที่ปลอดภัยและเชื่อถือได้มากขึ้น