O Departamento de Defesa dos EUA está explorando ativamente a aplicação de inteligência artificial no campo militar e cooperando com empresas líderes de IA, como OpenAI e Anthropic. Esta colaboração visa aumentar a eficiência do Departamento de Defesa, ao mesmo tempo que respeita estritamente o princípio de não utilizar tecnologia de IA para armas letais. O artigo explora o papel da IA na tomada de decisões militares, bem como a controvérsia ética sobre o poder autónomo de tomada de decisões sobre armas da IA, e demonstra a atitude cautelosa do Pentágono e a supervisão rigorosa da aplicação da tecnologia de IA.
À medida que a tecnologia de inteligência artificial avança rapidamente, os principais criadores de IA, como OpenAI e Anthropic, estão a trabalhar arduamente para trabalhar com os militares dos EUA, procurando melhorar a eficiência do Pentágono e, ao mesmo tempo, garantir que a sua tecnologia de IA não seja utilizada para armas letais. Radha Plumb, diretora digital e de IA do Pentágono, disse em entrevista ao TechCrunch que a IA não é atualmente usada em armas, mas fornece ao Departamento de Defesa vantagens significativas na identificação, rastreamento e avaliação de ameaças.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
Dr. Plumb mencionou que o Pentágono está acelerando a execução da “cadeia de morte”, um processo que envolve identificar, rastrear e neutralizar ameaças, envolvendo sensores complexos, plataformas e sistemas de armas. A IA generativa mostra o seu potencial nas fases de planeamento e estratégia da cadeia de destruição. Ela observou que a IA pode ajudar os comandantes a responder de forma rápida e eficaz quando confrontados com ameaças. Nos últimos anos, o Pentágono tornou-se cada vez mais próximo dos desenvolvedores de IA. Em 2024, empresas como OpenAI, Anthropic e Meta relaxaram as suas políticas de utilização para permitir que as agências de inteligência e defesa dos EUA utilizassem os seus sistemas de IA, mas ainda proibiram a utilização destas tecnologias de IA para fins que prejudicam os seres humanos. Esta mudança levou a uma rápida expansão da cooperação entre empresas de IA e empreiteiros de defesa. A Meta, por exemplo, fez parceria em novembro com empresas como Lockheed Martin e Booz Allen para aplicar seu modelo Llama AI ao setor de defesa. A Antrópica alcançou uma cooperação semelhante com a Palantir. Embora os detalhes técnicos específicos dessas colaborações não sejam claros, o Dr. Plumb disse que a aplicação da IA na fase de planejamento pode entrar em conflito com as políticas de uso de vários desenvolvedores líderes. Tem havido uma discussão acalorada na indústria sobre se as armas de IA deveriam ter a capacidade de tomar decisões de vida ou morte. O CEO da Anduril, Palmer Luckey, mencionou que os militares dos EUA têm um longo histórico de compra de sistemas de armas autônomos. No entanto, o Dr. Plumb rejeitou isto, sublinhando que, em qualquer caso, alguém deve estar envolvido na tomada da decisão de usar a força. Ela destacou que a ideia de sistemas automatizados que tomam decisões de vida ou morte de forma independente é muito binária e a realidade é muito mais complexa. O sistema de IA do Pentágono é uma colaboração entre humanos e máquinas, com líderes seniores envolvidos no processo de tomada de decisão. Destaques: A IA está a proporcionar ao Pentágono vantagens significativas na identificação e avaliação de ameaças, conduzindo a uma tomada de decisões militares mais eficiente. Os desenvolvedores de IA estão trabalhando cada vez mais em estreita colaboração com o Pentágono, mas sempre insistiram que a tecnologia de IA não fosse usada para prejudicar os seres humanos. Prosseguem as discussões sobre se as armas de IA devem ter capacidades de tomada de decisão de vida ou morte, com o Pentágono a sublinhar que os humanos estão sempre envolvidos.Em suma, a IA tem amplas perspetivas de aplicação no domínio militar, mas as suas questões éticas e de segurança também devem ser tratadas com cautela. Como evitar o abuso da tecnologia de IA e, ao mesmo tempo, garantir a segurança nacional será uma questão importante que exigirá atenção e resolução contínuas no futuro.