Récemment, une nouvelle menace est apparue dans le domaine de la sécurité des réseaux : les modèles malveillants d’apprentissage automatique. Les chercheurs ont découvert 100 modèles de ce type sur la plateforme Hugging Face, qui peuvent être utilisés pour injecter du code malveillant sur les appareils des utilisateurs et effectuer des opérations malveillantes à l'aide de technologies telles que PyTorch. Cela met en évidence les graves défis auxquels est confronté le domaine de la sécurité de l’IA et nous rappelle de rester très vigilants quant à la sécurité des modèles d’IA. L’émergence de modèles d’IA malveillants affecte non seulement la sécurité des données des utilisateurs, mais peut également entraîner des risques systémiques plus larges. L’industrie doit travailler ensemble pour renforcer les mécanismes d’audit de sécurité et de protection des modèles d’IA.
Les chercheurs ont découvert 100 modèles d'apprentissage automatique malveillants sur la plateforme Hugging Face AI, qui peuvent permettre aux attaquants d'injecter du code malveillant sur les machines des utilisateurs. Les modèles d'IA malveillants utilisent des méthodes telles que PyTorch pour exécuter du code malveillant, exacerbant ainsi les risques de sécurité. Pour réduire les risques, les développeurs d’IA doivent utiliser de nouveaux outils pour améliorer la sécurité des modèles d’IA. Les modèles malveillants découverts mettent en évidence les risques que présentent les modèles d’IA malveillants pour les environnements utilisateur, nécessitant une vigilance continue et une sécurité renforcée.Les problèmes de sécurité de l’IA deviennent de plus en plus importants, obligeant les développeurs d’IA, les fournisseurs de plateformes et les utilisateurs à travailler ensemble pour établir un mécanisme de sécurité plus complet afin de faire face conjointement aux risques posés par les modèles d’IA malveillants. Ce n'est qu'en renforçant l'examen de la sécurité des modèles et en développant des technologies de détection et de défense plus efficaces que nous pourrons garantir la sécurité des utilisateurs et promouvoir le développement sain de la technologie de l'IA. Ce n’est que grâce à une collaboration multipartite que nous pourrons créer un environnement écologique d’IA plus sûr et plus fiable.