OpenAI está explorando activamente el potencial de aplicación de grandes modelos de lenguaje en el campo de la inteligencia sobre amenazas biológicas. Desarrollaron el sistema de alerta temprana GPT-4, que está diseñado para identificar posibles amenazas de armas biológicas e incorporarlas al marco de prevención de riesgos de OpenAI. Este sistema no pretende reemplazar los métodos de recopilación de inteligencia existentes, pero espera mejorar la eficiencia de la adquisición de información y ayudar a los expertos humanos a emitir juicios. Un estudio reciente en el que participaron 100 participantes evaluó preliminarmente la eficacia de GPT-4 en la adquisición de información auxiliar. Los resultados mostraron que GPT-4 combinado con Internet puede mejorar ligeramente la precisión y la integridad, pero el efecto es limitado, y el estudio también señaló que. solo evaluar información La adquisición tiene sus propias limitaciones.
OpenAI, una empresa estadounidense de investigación de inteligencia artificial, comenzó recientemente a desarrollar un sistema de alerta temprana para GPT-4 para explorar si los modelos de lenguaje a gran escala pueden mejorar la eficiencia de la obtención de información sobre amenazas biológicas en comparación con Internet. El sistema está diseñado para servir como un "disparador" que señala la presencia potencial de un arma biológica, lo que requiere más investigación, al tiempo que incorpora el marco de prevención de OpenAI. En un estudio relacionado, 100 participantes demostraron que el uso de GPT-4 combinado con Internet dio lugar a una ligera mejora en la precisión y la integridad de las tareas de riesgo biológico, pero el efecto no fue significativo. El estudio destaca las limitaciones de evaluar únicamente la adquisición de información en lugar de la aplicación práctica, y no explora la contribución potencial de GPT-4 al desarrollo de nuevas armas biológicas. Al mismo tiempo, OpenAI anunció el lanzamiento de varios modelos nuevos para brindar más opciones de aplicaciones.
Aunque los resultados de este estudio de OpenAI son limitados, demuestra su énfasis en la aplicación responsable de la tecnología de inteligencia artificial y proporciona una experiencia valiosa para futuras investigaciones sobre modelos de lenguaje a gran escala en el campo de la bioseguridad. Es necesario realizar más investigaciones sobre el rendimiento y los riesgos potenciales de GPT-4 en aplicaciones prácticas y desarrollar un mecanismo de seguridad más completo.