Meta a récemment annoncé qu'elle ouvrirait la série Llama de modèles d'intelligence artificielle aux agences gouvernementales américaines et aux sous-traitants associés pour des applications de sécurité nationale. Cette décision visait à répondre aux craintes que son intelligence artificielle « ouverte » puisse être exploitée par des adversaires étrangers et à démontrer le soutien de Meta à la sécurité nationale. L’éditeur de Downcodes fournira une interprétation détaillée de cet incident, en analysant les motivations qui le sous-tendent, son impact potentiel et le débat qui en résulte sur la sécurité de l’intelligence artificielle.
Meta Corporation a récemment annoncé qu'elle ouvrirait sa série de modèles d'intelligence artificielle Llama aux agences gouvernementales américaines et aux sous-traitants associés pour prendre en charge les applications de sécurité nationale.
Cette décision vise à dissiper les perceptions selon lesquelles son IA « ouverte » pourrait donner du pouvoir aux adversaires étrangers. "Nous sommes heureux de confirmer que Llama sera disponible pour les agences gouvernementales américaines, y compris celles axées sur les programmes de défense et de sécurité nationale, ainsi que pour les partenaires du secteur privé soutenant ces efforts", a déclaré Meta dans un article de blog.
Pour promouvoir ce projet, Meta s'est associé à un certain nombre d'entreprises renommées, notamment Accenture, Amazon Web Services, Andiel, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake. . Ces entreprises contribueront à appliquer le modèle Llama à diverses missions de sécurité nationale.
Par exemple, Oracle utilise Llama pour traiter la documentation de maintenance des avions, et Scale AI peaufine Llama pour des tâches spécifiques de sécurité nationale. Lockheed Martin prévoit de fournir Llama à ses clients du secteur de la défense pour les aider à générer du code informatique, etc.
En général, la politique de Meta interdit aux développeurs d'utiliser Llama pour des projets liés à l'armée, à la guerre ou à l'espionnage. Cependant, dans ce cas, Meta a décidé de faire une exception et d'autoriser les agences et sous-traitants liés au gouvernement américain à utiliser Llama, en plus des agences similaires au Royaume-Uni, au Canada, en Australie et en Nouvelle-Zélande.
Il convient de noter que des rapports récents indiquent que certains chercheurs associés à l'Armée populaire de libération chinoise ont utilisé une ancienne version du modèle Llama (Llama2) pour développer un chatbot à vocation militaire conçu pour collecter et traiter des renseignements afin de fournir des décisions opérationnelles. faire des informations. Meta a répondu que l'utilisation du modèle était « non autorisée » et violait la politique d'utilisation acceptable de l'entreprise. Cependant, l’incident a suscité de nombreux débats sur les avantages et les inconvénients de l’intelligence artificielle ouverte.
Avec l’application de l’intelligence artificielle au renseignement militaire, à la surveillance et à la reconnaissance, les risques de sécurité associés sont progressivement apparus. Une étude de l'AI Now Institute montre que les systèmes d'intelligence artificielle existants s'appuient sur des données personnelles qui peuvent être extraites et utilisées par des adversaires. Dans le même temps, les systèmes d’intelligence artificielle rencontrent également des problèmes tels que les biais et les illusions, et il n’existe actuellement aucune solution efficace. Les chercheurs recommandent de développer des systèmes d’IA dédiés, isolés des modèles « commerciaux ».
Bien que Meta affirme que l’IA ouverte peut accélérer la recherche en matière de défense et promouvoir les intérêts économiques et sécuritaires des États-Unis, l’armée américaine reste prudente quant à l’adoption de cette technologie. Jusqu’à présent, seule l’armée a déployé l’intelligence artificielle générative.
La décision de Meta a déclenché de nombreuses discussions sur les questions d’éthique et de sécurité liées aux applications de l’intelligence artificielle dans le domaine de la défense, et son impact à long terme reste à mesurer. L'éditeur de Downcodes continuera de prêter attention aux derniers développements dans ce domaine et de proposer des analyses et des rapports plus approfondis aux lecteurs.