OpenAI a publié son premier article sur le super-alignement, explorant les énormes défis et opportunités que pourrait apporter la super-intelligence artificielle. L'article propose le concept de « généralisation faible à forte » et démontre la faisabilité de la supervision de GPT-2 par le biais d'expériences. Cependant, il révèle également l'énorme difficulté d'une supervision faible des modèles surhumains. Pour promouvoir la recherche dans ce domaine, OpenAI a généreusement annoncé une subvention de 10 millions de dollars pour encourager les chercheurs mondiaux en intelligence artificielle à participer activement et à lutter conjointement contre les risques potentiels posés par la super intelligence artificielle. Il s’agit d’une étape importante pour la recherche dans le domaine de la sécurité de l’intelligence artificielle.
Ce plan de recherche et de financement d'OpenAI indique non seulement l'orientation de la recherche sur la sécurité de l'intelligence artificielle, mais souligne également son engagement en faveur du développement responsable de la technologie de l'intelligence artificielle. À l’avenir, comment superviser et contrôler efficacement la super intelligence artificielle deviendra un défi majeur auquel est confronté le domaine de l’intelligence artificielle, nécessitant des efforts et une coopération soutenus à l’échelle mondiale.