Récemment, les problèmes de sécurité des modèles d’IA ont fait l’objet d’une attention croissante. Des chercheurs de l’Université d’État de Caroline du Nord ont réalisé une avancée majeure en développant une méthode permettant d’extraire des modèles d’IA en capturant les signaux électromagnétiques des ordinateurs avec une précision de plus de 99 %. Cette découverte a suscité des inquiétudes dans l'industrie quant à la protection des droits de propriété intellectuelle sur les modèles d'IA, en particulier dans le contexte où des entreprises telles qu'OpenAI, Anthropic et Google ont investi massivement dans le développement de modèles propriétaires. L'article explore l'impact potentiel de cette nouvelle technologie et la manière dont les entreprises peuvent répondre au risque croissant de vol de modèles d'IA, ainsi qu'en analysant les mesures de sécurité associées et les tendances de développement futures.
Récemment, des chercheurs de l'Université d'État de Caroline du Nord ont proposé une nouvelle méthode pour extraire des modèles d'intelligence artificielle (IA) en capturant les signaux électromagnétiques émis par les ordinateurs, avec une précision de plus de 99 %. Cette découverte pourrait constituer un défi pour le développement commercial de l’IA, d’autant plus que des sociétés telles qu’OpenAI, Anthropic et Google ont investi massivement dans des modèles propriétaires. Cependant, les experts notent que l’impact réel de cette technologie, ainsi que les mesures de défense, restent flous.
Lars Nyman, directeur marketing de CUDO Compute, a déclaré que le vol d'IA n'est pas seulement la perte du modèle lui-même, mais peut également déclencher une série de réactions en chaîne, telles que des concurrents utilisant des années de résultats de recherche et de développement, et des agences de réglementation enquêtant sur des droits intellectuels. des droits de propriété, une mauvaise gestion, et même des poursuites judiciaires de la part de clients qui ont découvert que le « caractère unique » de leur IA n’était pas unique. Cette situation pourrait conduire à une poussée au sein de l’industrie en faveur d’audits standardisés, comme la certification SOC2 ou ISO, afin de distinguer les entreprises sûres des entreprises irresponsables.
Ces dernières années, la menace d’attaques de pirates contre les modèles d’IA est devenue de plus en plus sérieuse. La dépendance du monde des affaires à l’égard de l’IA rend ce problème encore plus aigu. Des rapports récents montrent que des milliers de fichiers malveillants ont été téléchargés sur Hugging Face, un référentiel clé d'outils d'IA, compromettant gravement les modèles utilisés dans des secteurs tels que la vente au détail, la logistique et la finance. Les experts en sécurité nationale ont averti que des mesures de sécurité faibles peuvent exposer les systèmes propriétaires à un risque de vol, comme le montre la faille de sécurité OpenAI. Les modèles d'IA volés peuvent être rétro-conçus ou vendus, ce qui réduira l'investissement d'une entreprise et sapera la confiance, permettant ainsi aux concurrents de rattraper rapidement leur retard.
L'équipe de recherche de l'Université d'État de Caroline du Nord a révélé des informations clés sur la structure du modèle en plaçant une sonde près de l'unité de traitement du tenseur de bord (TPU) de Google et en analysant son signal. Cette méthode d’attaque ne nécessite pas d’accès direct au système, ce qui expose la propriété intellectuelle de l’IA à de graves risques de sécurité. Le co-auteur de l'étude, Aydin Aysu, professeur agrégé de génie électrique et informatique, a souligné que la construction d'un modèle d'IA coûte cher et nécessite beaucoup de ressources informatiques, il est donc crucial d'empêcher le vol du modèle.
À mesure que la technologie de l’IA est de plus en plus utilisée, les entreprises doivent réexaminer certains équipements utilisés pour le traitement de l’IA. Le consultant technologique Suriel Arellano estime que les entreprises pourraient s'orienter vers une informatique plus centralisée et sécurisée ou envisager des technologies alternatives moins sujettes au vol. Même si le risque de vol existe, l’IA renforce également la cybersécurité, en améliorant l’efficacité de la réponse grâce à la détection automatisée des menaces et à l’analyse des données, en aidant à identifier les menaces potentielles et à apprendre à répondre aux nouvelles attaques.
Souligner:
Les chercheurs ont démontré une méthode d’extraction de modèles d’IA en capturant des signaux électromagnétiques avec une précision de plus de 99 %.
Le vol de modèles d'IA peut amener les concurrents à exploiter les années de résultats de recherche et de développement de l'entreprise, affectant ainsi la sécurité de l'entreprise.
Les entreprises doivent renforcer la protection de sécurité des modèles d’IA pour faire face à la menace croissante des attaques de pirates informatiques.
Dans l’ensemble, la sécurité des modèles d’IA est devenue une priorité pour les entreprises. Face à des menaces de cybersécurité de plus en plus complexes, les entreprises doivent prendre activement des mesures pour renforcer la protection des modèles d’IA et explorer des technologies d’IA plus sûres afin de protéger leurs droits de propriété intellectuelle et leurs intérêts commerciaux.