OpenAI a récemment publié un rapport de recherche convaincant révélant ses progrès significatifs dans le contrôle de l’IA surhumaine. Dans le rapport, les chercheurs ont utilisé GPT-4 pour guider le modèle GPT-2, plus puissant, qui a marqué une étape clé pour OpenAI dans le domaine de la sécurité de l'IA. Ce résultat de recherche a été hautement reconnu par les experts dans le domaine de la sécurité de l’IA et démontre également la détermination d’OpenAI à résoudre les problèmes de sécurité de l’IA. En outre, OpenAI a également annoncé sa coopération avec l'ancien PDG de Google, Eric Schmidt, pour promouvoir davantage la recherche externe sur la sécurité de l'IA.
OpenAI a publié un rapport de recherche dans lequel les chercheurs ont qualifié GPT-4 de guide du plus puissant GPT-2, indiquant qu'OpenAI travaille dur pour contrôler le problème de l'IA surhumaine. Les chercheurs ont présenté les résultats de leurs expériences pour apprivoiser l'IA et ont été confirmés par le directeur de l'AI Security Center et le chef du groupe Superalignment. En outre, OpenAI a également annoncé un partenariat avec l'ancien PDG de Google, Eric Schmidt, pour fournir un financement destiné à soutenir les chercheurs externes.
Ce résultat de recherche d'OpenAI et la coopération avec des experts externes fournissent une référence importante pour la construction de systèmes d'IA plus sûrs et plus fiables à l'avenir. Cela reflète non seulement l’importance accordée par OpenAI à la sécurité de l’IA, mais constitue également un exemple positif pour l’ensemble du secteur de l’IA, favorisant le développement de la technologie de l’IA dans une direction plus sûre et plus contrôlable.