Le ministère américain de la Défense explore activement l’application de l’intelligence artificielle dans le domaine militaire et coopère avec de grandes sociétés d’IA telles que OpenAI et Anthropic. Cette collaboration vise à accroître l’efficacité du ministère de la Défense tout en respectant strictement le principe de ne pas utiliser la technologie de l’IA pour des armes mortelles. L’article explore le rôle de l’IA dans la prise de décision militaire, ainsi que la controverse éthique sur le pouvoir décisionnel de l’IA en matière d’armes autonomes, et démontre l’attitude prudente du Pentagone et sa supervision stricte de l’application de la technologie de l’IA.
Alors que la technologie de l’intelligence artificielle progresse rapidement, les principaux développeurs d’IA comme OpenAI et Anthropic travaillent dur pour travailler avec l’armée américaine, cherchant à améliorer l’efficacité du Pentagone tout en garantissant que leur technologie d’IA ne soit pas utilisée pour des armes mortelles. Le Dr Radha Plumb, responsable du numérique et de l'IA au Pentagone, a déclaré dans une interview avec TechCrunch que l'IA n'est actuellement pas utilisée dans les armes, mais qu'elle offre au ministère de la Défense des avantages significatifs dans l'identification, le suivi et l'évaluation des menaces.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
Le Dr Plumb a mentionné que le Pentagone accélère l'exécution de la « chaîne de destruction », un processus qui implique l'identification, le suivi et la neutralisation des menaces, impliquant des capteurs, des plates-formes et des systèmes d'armes complexes. L’IA générative montre son potentiel dans les étapes de planification et de stratégie de la kill chain. Elle a souligné que l’IA peut aider les commandants à réagir rapidement et efficacement face à des menaces. Ces dernières années, le Pentagone est devenu de plus en plus proche des développeurs d’IA. En 2024, des entreprises telles qu’OpenAI, Anthropic et Meta ont assoupli leurs politiques d’utilisation pour permettre aux agences américaines de renseignement et de défense d’utiliser leurs systèmes d’IA, mais ont toujours interdit l’utilisation de ces technologies d’IA à des fins nuisibles aux humains. Ce changement a conduit à une expansion rapide de la coopération entre les sociétés d’IA et les sous-traitants de la défense. Meta, par exemple, s'est associé en novembre à des sociétés telles que Lockheed Martin et Booz Allen pour appliquer son modèle d'IA Llama au secteur de la défense. Anthropic a conclu une coopération similaire avec Palantir. Bien que les détails techniques spécifiques de ces collaborations ne soient pas clairs, le Dr Plumb a déclaré que l'application de l'IA au stade de la planification pourrait entrer en conflit avec les politiques d'utilisation de plusieurs développeurs de premier plan. Il y a eu un débat animé dans l’industrie sur la question de savoir si les armes IA devraient avoir la capacité de prendre des décisions de vie ou de mort. Le PDG d'Anduril, Palmer Luckey, a mentionné que l'armée américaine achète depuis longtemps des systèmes d'armes autonomes. Cependant, le Dr Plumb a rejeté cette idée, soulignant que dans tous les cas, quelqu'un doit être impliqué dans la décision de recourir à la force. Elle a souligné que l’idée de systèmes automatisés prenant indépendamment des décisions de vie ou de mort est trop binaire et que la réalité est beaucoup plus complexe. Le système d'IA du Pentagone est une collaboration entre humains et machines, avec des hauts dirigeants impliqués dans le processus de prise de décision. Points forts : L’IA offre au Pentagone des avantages significatifs dans l’identification et l’évaluation des menaces, permettant ainsi une prise de décision militaire plus efficace. Les développeurs d’IA travaillent de plus en plus étroitement avec le Pentagone, mais ont toujours insisté pour que la technologie de l’IA ne soit pas utilisée pour nuire aux humains. Les discussions se poursuivent sur la question de savoir si les armes IA devraient avoir des capacités de prise de décision de vie ou de mort, le Pentagone soulignant que les humains sont toujours impliqués.Dans l’ensemble, l’IA a de larges perspectives d’application dans le domaine militaire, mais ses questions d’éthique et de sécurité doivent également être traitées avec prudence. Comment éviter les abus de la technologie de l’IA tout en garantissant la sécurité nationale sera une question importante qui nécessitera une attention et une résolution continues à l’avenir.