A OpenAI está explorando ativamente o potencial de aplicação de grandes modelos de linguagem no campo da inteligência de ameaças biológicas. Eles desenvolveram o sistema de alerta precoce GPT-4, projetado para identificar ameaças potenciais de armas biológicas e incorporá-las na estrutura de prevenção de riscos da OpenAI. Este sistema não se destina a substituir os métodos existentes de recolha de informações, mas espera melhorar a eficiência da aquisição de informações e ajudar os especialistas humanos a fazer julgamentos. Um estudo recente envolvendo 100 participantes avaliou preliminarmente a eficácia do GPT-4 na aquisição auxiliar de informações. Os resultados mostraram que o GPT-4 combinado com a Internet pode melhorar ligeiramente a precisão e a integridade, mas o efeito é limitado, e o estudo também apontou que. apenas avaliar a aquisição de informações tem suas próprias limitações.
OpenAI, uma empresa americana de pesquisa em inteligência artificial, começou recentemente a desenvolver um sistema de alerta precoce para GPT-4 para explorar se modelos de linguagem em larga escala podem melhorar a eficiência da obtenção de informações sobre ameaças biológicas em comparação com a Internet. O sistema foi concebido para servir como um “gatilho” que sinaliza a presença potencial de uma arma biológica, exigindo uma investigação mais aprofundada, ao mesmo tempo que incorpora a estrutura de prevenção da OpenAI. Num estudo relacionado, 100 participantes mostraram que o uso do GPT-4 combinado com a Internet resultou numa ligeira melhoria na precisão e integridade das tarefas de risco biológico, mas o efeito não foi significativo. O estudo destaca as limitações de avaliar apenas a aquisição de informação e não a aplicação prática, e não explora a contribuição potencial do GPT-4 para o desenvolvimento de novas armas biológicas. Ao mesmo tempo, a OpenAI anunciou o lançamento de vários novos modelos para fornecer mais opções de aplicação.
Embora os resultados deste estudo da OpenAI sejam limitados, demonstra a sua ênfase na aplicação responsável da tecnologia de inteligência artificial e fornece uma experiência valiosa para pesquisas futuras sobre modelos de linguagem em larga escala no campo da biossegurança. Mais pesquisas precisam se concentrar no desempenho e nos riscos potenciais do GPT-4 em aplicações práticas e desenvolver um mecanismo de segurança mais completo.