أصدر فريق JFrog الأمني مؤخرًا تقريرًا يشير إلى وجود عدد كبير من نماذج AI ML الضارة على منصة Hugging Face، والتي يبلغ عددها 100 على الأقل. ولا يمكن الاستهانة بالمخاطر التي تخفيها هذه النماذج الخبيثة، بل إن بعض النماذج تتمتع بالقدرة على تنفيذ تعليمات برمجية على جهاز الضحية وإنشاء باب خلفي مستمر، مما يشكل تهديدًا خطيرًا لأمن بيانات المستخدم. اكتشف الباحثون أن النماذج الضارة التي تم إنشاؤها باستخدام أطر عمل PyTorch و Tensorflow Keras، مثل النموذج المسمى "baller423"، يمكنها إنشاء غلاف عكسي على المضيف المستهدف لتحقيق التحكم عن بعد. وعلى الرغم من أنه قد يتم تحميل بعض النماذج الضارة لأغراض البحث الأمني، بهدف اكتشاف الثغرات الأمنية والحصول على جوائز، إلا أن ذلك لا يقلل من أضرارها المحتملة.
اكتشف فريق أمان JFrog ما لا يقل عن 100 نموذج خبيث من نماذج AI ML على منصة Hugging Face. يمكن لبعض النماذج تنفيذ تعليمات برمجية على جهاز الضحية، مما يوفر بابًا خلفيًا مستمرًا. اكتشف الباحثون الأمنيون وجود نماذج PyTorch وTensorflow Keras ذات وظائف ضارة على النظام الأساسي، على سبيل المثال، يمكن لنموذج baller423 الذي تم تحميله من قبل المستخدمين إنشاء غلاف عكسي على المضيف المحدد. قد يتم تحميل بعض النماذج الضارة لأغراض البحث الأمني لاكتشاف نقاط الضعف والحصول على المكافآت.يجب أن تعمل منصة Hugging Face على تعزيز آلية المراجعة للنماذج التي تم تحميلها لمنع مثل هذه المخاطر الأمنية بشكل فعال. يجب على المستخدمين أيضًا زيادة وعيهم الأمني واستخدام نماذج الذكاء الاصطناعي من مصادر غير معروفة بحذر لتجنب الهجمات الضارة. يذكرنا هذا الحادث مرة أخرى أنه مع تطور تكنولوجيا الذكاء الاصطناعي، أصبحت القضايا الأمنية بارزة بشكل متزايد، وتحتاج الصناعة إلى العمل معًا لبناء بيئة بيئية أكثر أمانًا وموثوقية للذكاء الاصطناعي.