A Meta anunciou recentemente que abrirá a série Llama de modelos de inteligência artificial para agências governamentais dos EUA e contratantes relacionados para aplicações de segurança nacional. A medida pretendia responder às preocupações de que a sua inteligência artificial “aberta” pudesse ser explorada por adversários estrangeiros e demonstrar o apoio da Meta à segurança nacional. O editor do Downcodes fornecerá uma interpretação detalhada deste incidente, analisando as motivações por trás dele, o impacto potencial e a discussão resultante sobre a segurança da inteligência artificial.
A Meta Corporation anunciou recentemente que abrirá sua série Llama de modelos de inteligência artificial para agências governamentais dos EUA e contratantes relacionados para apoiar aplicações de segurança nacional.
A medida visa dissipar a percepção de que a sua IA “aberta” poderia capacitar adversários estrangeiros. “Temos o prazer de confirmar que o Llama estará disponível para agências governamentais dos EUA, incluindo aquelas focadas em programas de defesa e segurança nacional, bem como para parceiros do setor privado que apoiam esses esforços”, disse Meta em um blog.
Para promover este projeto, a Meta fez parceria com várias empresas conhecidas, incluindo Accenture, Amazon Web Services, Andiel, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI e Snowflake. . Estas empresas ajudarão a aplicar o modelo Llama a uma variedade de missões de segurança nacional.
Por exemplo, a Oracle está usando o Llama para processar documentação de manutenção de aeronaves, e a Scale AI está ajustando o Llama para tarefas específicas de segurança nacional. A Lockheed Martin planeja fornecer o Llama aos seus clientes de defesa para ajudá-los a gerar código de computador e assim por diante.
Em geral, a política do Meta proíbe os desenvolvedores de usar o Llama para projetos militares, de guerra ou de espionagem. Porém, neste caso, a Meta decidiu abrir uma exceção e permitir que agências e empreiteiros relacionados ao governo dos EUA usassem o Llama, além de agências similares no Reino Unido, Canadá, Austrália e Nova Zelândia.
É importante notar que houve relatos recentes de que alguns pesquisadores associados ao Exército de Libertação do Povo Chinês usaram uma versão antiga do modelo Llama (Llama2) para desenvolver um chatbot com foco militar projetado para coletar e processar inteligência para fornecer decisões operacionais. fazendo informações. Meta respondeu que o uso do modelo era “não autorizado” e violava a política de uso aceitável da empresa. No entanto, o incidente gerou ainda mais discussões generalizadas sobre os prós e os contras da inteligência artificial aberta.
Com a aplicação da inteligência artificial na inteligência militar, na vigilância e no reconhecimento, surgiram gradualmente riscos de segurança relacionados. Um estudo do AI Now Institute mostra que os sistemas de inteligência artificial existentes dependem de dados pessoais que podem ser extraídos e transformados em armas pelos adversários. Ao mesmo tempo, os sistemas de inteligência artificial também apresentam problemas como preconceito e ilusão, e atualmente não existe uma solução eficaz. Os pesquisadores recomendam o desenvolvimento de sistemas de IA dedicados, isolados de modelos “comerciais”.
Embora Meta afirme que a IA aberta pode acelerar a investigação de defesa e promover os interesses económicos e de segurança dos EUA, os militares dos EUA ainda estão cautelosos quanto à adopção desta tecnologia.
A ação da Meta desencadeou discussões generalizadas sobre as questões éticas e de segurança das aplicações de inteligência artificial no campo da defesa, e o seu impacto a longo prazo continua por ver. O editor do Downcodes continuará atento aos últimos desenvolvimentos neste campo e trazendo análises e relatórios mais aprofundados aos leitores.