A Meta anunciou recentemente que abrirá sua série de modelos de inteligência artificial da LLAMA para agências governamentais dos EUA e seus contratados para apoiar as aplicações de segurança nacional. A medida visa responder a preocupações sobre sua IA aberta potencialmente explorada por oponentes estrangeiros e demonstrar sua contribuição tecnológica no campo da segurança nacional. A Meta enfatizou que a aplicação do modelo de llama estará sujeita a normas e restrições estritas para garantir que ele não seja usado para fins ilegais ou prejudiciais. Este artigo explorará profundamente o fundo da mudança da Meta, parceiros e as discussões sobre a segurança da inteligência artificial aberta que foram acionadas.
A Meta anunciou recentemente que abrirá sua série de modelos de inteligência artificial da LLAMA para agências governamentais dos EUA e contratados relacionados para apoiar as aplicações de segurança nacional.
A medida visa eliminar a percepção de que o mundo exterior está "aberto" à sua IA pode alimentar rivais estrangeiros. "Temos o prazer de confirmar que a LLAMA fornecerá às agências governamentais dos EUA, incluindo aqueles focados na defesa e segurança nacional, bem como em parceiros do setor privado que apoiam esses esforços", disse Meta em uma postagem no blog.
Para promover esse projeto, a Meta alcançou a cooperação com várias empresas conhecidas, incluindo Accenture, Amazon Web Services, Andyr, Boss Allen, Databricks, Deloitte, IBM, Ledos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI e Snowflake. Essas empresas ajudarão a aplicar o modelo de lhama a várias tarefas de segurança nacional.
Por exemplo, o Oracle está usando a LLAMA para processar documentos de manutenção de aeronaves, enquanto a IA em escala é um lhama de ajuste fino para tarefas específicas de segurança nacional. A Lockheed Martin planeja fornecer lhama a seus clientes de defesa para ajudá -los a gerar código de computador, etc.
Normalmente, as políticas da Meta proíbem os desenvolvedores de aplicar lhama a projetos militares, de guerra ou de espião. No entanto, neste caso, a Meta decidiu fazer uma exceção ao permitir que a lhama fosse usada por agências e contratados relacionados ao governo dos EUA e também aplicável a agências semelhantes em países como o Reino Unido, Canadá, Austrália e Nova Zelândia.
Vale a pena notar que foi relatado que alguns pesquisadores relacionados ao Exército de Libertação do Povo Chinês usaram a versão antiga do Modelo de Llama (LLAMA2) para desenvolver um chatbot focado em militares projetado para coletar e processar a inteligência e fornecer a tomada de decisão de combate. Informação. A Meta respondeu que o uso do modelo era "não autorizado" e violou a política de uso aceitável da empresa. No entanto, esse incidente desencadeou ainda mais discussões generalizadas sobre as vantagens e desvantagens da IA aberta.
Com a aplicação da inteligência artificial em inteligência militar, vigilância e reconhecimento, os riscos de segurança relacionados surgiram gradualmente. Um estudo do Instituto de AI agora mostra que os sistemas de IA existentes dependem de dados pessoais que podem ser extraídos e armados por adversários. Ao mesmo tempo, os sistemas de inteligência artificial também têm problemas como viés e alucinação, e atualmente não há solução eficaz. Os pesquisadores recomendam o desenvolvimento de sistemas de IA dedicados isolados do modelo "Business".
Embora a Meta afirme que a abertura da IA pode acelerar a pesquisa de defesa e promover os interesses econômicos e de segurança dos EUA, os militares dos EUA ainda são cautelosos com a adoção dessa tecnologia, e apenas o Exército implantou inteligência artificial generativa até agora.
Pontos -chave:
A Meta abre o modelo de lhama para os contratados do governo e de defesa dos EUA para apoiar os pedidos de segurança nacional.
Muitas empresas conhecidas cooperaram com a Meta para promover em conjunto a aplicação do modelo de lhama no campo da defesa.
Os riscos de segurança de inteligência artificial aberta em aplicações militares desencadearam discussões, e os pesquisadores pediram o desenvolvimento de modelos especializados.
A mudança da Meta alcançou um delicado equilíbrio entre promover o desenvolvimento tecnológico e a segurança nacional, mas também destaca os desafios éticos e de segurança na aplicação da tecnologia de inteligência artificial, que precisam ser continuamente prestados atenção e responderam cautelosamente. O desenvolvimento futuro da IA aberta exige encontrar o melhor caminho entre a inovação tecnológica e a garantia de segurança.