OpenAI erforscht aktiv das Anwendungspotenzial großer Sprachmodelle im Bereich der biologischen Bedrohungsintelligenz. Sie entwickelten das GPT-4-Frühwarnsystem, das potenzielle Bedrohungen durch Biowaffen identifizieren und in das Risikopräventionsrahmenwerk von OpenAI integrieren soll. Dieses System soll nicht bestehende Methoden zur Informationserhebung ersetzen, sondern soll die Effizienz der Informationsbeschaffung verbessern und menschliche Experten bei der Urteilsfindung unterstützen. In einer aktuellen Studie mit 100 Teilnehmern wurde vorläufig die Wirksamkeit von GPT-4 bei der Erfassung zusätzlicher Informationen bewertet. Die Ergebnisse zeigten, dass GPT-4 in Kombination mit dem Internet die Genauigkeit und Vollständigkeit leicht verbessern kann, die Wirkung ist jedoch begrenzt, und die Studie wies auch darauf hin Nur die Auswertung von Informationen hat ihre eigenen Grenzen.
OpenAI, ein amerikanisches Forschungsunternehmen für künstliche Intelligenz, hat kürzlich mit der Entwicklung eines Frühwarnsystems für GPT-4 begonnen, um zu untersuchen, ob groß angelegte Sprachmodelle die Effizienz der Informationsbeschaffung über biologische Bedrohungen im Vergleich zum Internet verbessern können. Das System soll als „Auslöser“ dienen, der das potenzielle Vorhandensein einer biologischen Waffe signalisiert, was weitere Untersuchungen erfordert, und gleichzeitig das Präventions-Framework von OpenAI einbinden. In einer verwandten Studie zeigten 100 Teilnehmer, dass die Verwendung von GPT-4 in Kombination mit dem Internet zu einer leichten Verbesserung der Genauigkeit und Vollständigkeit von Biohazard-Aufgaben führte, der Effekt war jedoch nicht signifikant. Die Studie hebt die Grenzen hervor, die nur bei der Bewertung der Informationsbeschaffung und nicht bei der praktischen Anwendung entstehen, und untersucht nicht den potenziellen Beitrag von GPT-4 zur Entwicklung neuer biologischer Waffen. Gleichzeitig kündigte OpenAI die Veröffentlichung mehrerer neuer Modelle an, um mehr Anwendungsmöglichkeiten zu bieten.
Obwohl die Ergebnisse dieser Studie von OpenAI begrenzt sind, zeigt sie, dass der Schwerpunkt auf der verantwortungsvollen Anwendung der Technologie der künstlichen Intelligenz liegt, und liefert wertvolle Erfahrungen für zukünftige Forschungen zu groß angelegten Sprachmodellen im Bereich der Biosicherheit. Weitere Forschung muss sich auf die Leistung und potenziellen Risiken von GPT-4 in praktischen Anwendungen konzentrieren und einen umfassenderen Sicherheitsmechanismus entwickeln.