OpenAI explore activement le potentiel d’application des grands modèles de langage dans le domaine du renseignement sur les menaces biologiques. Ils ont développé le système d'alerte précoce GPT-4, conçu pour identifier les menaces potentielles liées aux armes biologiques et les intégrer dans le cadre de prévention des risques d'OpenAI. Ce système n'est pas destiné à remplacer les méthodes de collecte de renseignements existantes, mais espère améliorer l'efficacité de l'acquisition d'informations et aider les experts humains à prendre des décisions. Une étude récente impliquant 100 participants a évalué de manière préliminaire l'efficacité du GPT-4 dans l'acquisition d'informations auxiliaires. Les résultats ont montré que le GPT-4 combiné à Internet peut légèrement améliorer la précision et l'exhaustivité, mais l'effet est limité, et l'étude a également souligné que. évaluer uniquement les informations. L'acquisition a ses propres limites.
OpenAI, une société américaine de recherche en intelligence artificielle, a récemment commencé à développer un système d'alerte précoce pour GPT-4 afin de déterminer si des modèles linguistiques à grande échelle peuvent améliorer l'efficacité de l'obtention d'informations sur les menaces biologiques par rapport à Internet. Le système est conçu pour servir de « déclencheur » signalant la présence potentielle d'une arme biologique, nécessitant une enquête plus approfondie, tout en intégrant le cadre de prévention d'OpenAI. Dans une étude connexe, 100 participants ont montré que l’utilisation de GPT-4 combinée à Internet entraînait une légère amélioration de la précision et de l’exhaustivité des tâches à risque biologique, mais l’effet n’était pas significatif. L'étude met en évidence les limites de la seule évaluation de l'acquisition d'informations plutôt que de leur application pratique, et n'explore pas la contribution potentielle du GPT-4 au développement de nouvelles armes biologiques. Dans le même temps, OpenAI a annoncé la sortie de plusieurs nouveaux modèles pour offrir davantage d'options d'application.
Bien que les résultats de cette étude d’OpenAI soient limités, elle démontre l’accent mis sur l’application responsable de la technologie de l’intelligence artificielle et fournit une expérience précieuse pour les recherches futures sur les modèles linguistiques à grande échelle dans le domaine de la biosécurité. Des recherches plus approfondies doivent se concentrer sur les performances et les risques potentiels de GPT-4 dans des applications pratiques, et développer un mécanisme de sécurité plus complet.