Meta a récemment annoncé qu'elle ouvrirait sa série LLAMA de modèles de renseignement artificiel aux agences gouvernementales américaines et à leurs entrepreneurs pour soutenir les applications de sécurité nationale. Cette décision vise à répondre aux préoccupations concernant son IA ouverte potentiellement exploitée par des adversaires étrangers et à démontrer sa contribution technologique dans le domaine de la sécurité nationale. Meta a souligné que l'application du modèle LLAMA sera soumise à des normes et restrictions strictes pour s'assurer qu'elle n'est pas utilisée à des fins illégales ou nocives. Cet article explorera en profondeur le contexte de la décision de Meta, des partenaires et des discussions sur la sécurité de l'intelligence artificielle ouverte qui ont été déclenchées.
Meta a récemment annoncé qu'elle ouvrirait sa série LLAMA de modèles de renseignement artificiel aux agences gouvernementales américaines et aux entrepreneurs connexes pour soutenir les applications de sécurité nationale.
Cette décision vise à éliminer la perception que le monde extérieur est «ouvert» à son IA peut alimenter les rivaux étrangers. "Nous sommes heureux de confirmer que Llama fournira des agences gouvernementales américaines, y compris celles axées sur la défense et la sécurité nationale, ainsi que des partenaires du secteur privé soutenant ces efforts", a déclaré Meta dans un article de blog.
Pour promouvoir ce projet, Meta a atteint la coopération avec plusieurs sociétés bien connues, notamment Accenture, Amazon Web Services, Andyr, Boss Allen, Databricks, Deloitte, IBM, Ledos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake. Ces entreprises aideront à appliquer le modèle LLAMA à diverses tâches de sécurité nationale.
Par exemple, Oracle utilise LLAMA pour traiter les documents de maintenance des avions, tandis que l'échelle AI est un lama à réglage fin pour des tâches de sécurité nationale spécifiques. Lockheed Martin prévoit de fournir Llama à ses clients de la défense pour les aider à générer du code informatique, etc.
En règle générale, les politiques de META interdisent aux développeurs d'appliquer LLAMA à des projets militaires, de guerre ou d'espionnage. Cependant, dans ce cas, Meta a décidé de faire une exception en permettant à Llama d'être utilisé par les agences et les entrepreneurs liés au gouvernement américain, et également applicables à des agences similaires dans des pays tels que le Royaume-Uni, le Canada, l'Australie et la Nouvelle-Zélande.
Il convient de noter qu'il a été signalé que certains chercheurs liés à l'Armée de libération du peuple chinois ont utilisé l'ancienne version du modèle de lama (LLAMA2) pour développer un chatbot axé sur les militaires conçu pour collecter et traiter l'intelligence et fournir des décisions de combat. information. Meta a répondu que l'utilisation du modèle était «non autorisée» et a violé la politique d'utilisation acceptable de l'entreprise. Cependant, cet incident a en outre déclenché une discussion généralisée sur les avantages et les inconvénients de l'IA ouverte.
Avec l'application de l'intelligence artificielle dans l'intelligence militaire, la surveillance et la reconnaissance, les risques de sécurité connexes ont progressivement fait surface. Une étude de l'IA IA Institute montre que les systèmes d'IA existants reposent sur des données personnelles qui peuvent être extraites et armées par des adversaires. Dans le même temps, les systèmes d'intelligence artificielle ont également des problèmes tels que les biais et les hallucinations, et il n'y a actuellement pas de solution efficace. Les chercheurs recommandent de développer des systèmes d'IA dédiés isolés du modèle "commercial".
Bien que Meta affirme que l'ouverture de l'IA peut accélérer la recherche sur la défense et promouvoir les intérêts économiques et de sécurité américains, l'armée américaine est toujours prudente quant à l'adoption de cette technologie, et seule l'armée a déployé l'intelligence artificielle générative jusqu'à présent.
Points clés:
Meta ouvre le modèle de lama au gouvernement américain et aux entrepreneurs de la défense pour soutenir les applications de sécurité nationale.
De nombreuses sociétés bien connues ont coopéré avec Meta pour promouvoir conjointement l'application du modèle LLAMA dans le domaine de la défense.
Les risques de sécurité de l'intelligence artificielle ouverte dans les applications militaires ont déclenché des discussions, et les chercheurs ont appelé au développement de modèles spécialisés.
La décision de Meta a obtenu un équilibre délicat entre la promotion du développement technologique et de la sécurité nationale, mais il met également en évidence les défis éthiques et de sécurité dans l'application de la technologie de l'intelligence artificielle, qui doit être en permanence en permanence et a pratiqué avec prudence. Le développement futur de l'IA ouverte nécessite de trouver la meilleure voie entre l'innovation technologique et la garantie de sécurité.