OpenAI опубликовала свою первую статью о суперсовмещении, в которой исследуются огромные проблемы и возможности, которые может принести суперискусственный интеллект. В статье предлагается концепция «обобщения от слабого к сильному» и демонстрируется возможность GPT-2 контролировать GPT-4 посредством экспериментов. Однако она также показывает огромную трудность слабого контроля над сверхчеловеческими моделями. Чтобы продвигать исследования в этой области, OpenAI щедро объявила о выделении гранта в размере 10 миллионов долларов, чтобы побудить мировых исследователей искусственного интеллекта к активному участию и совместному устранению потенциальных рисков, связанных с суперискусственным интеллектом. Это важная веха для исследований в области безопасности искусственного интеллекта.
Этот план исследований и финансирования OpenAI не только указывает направление исследований в области безопасности искусственного интеллекта, но также подчеркивает его приверженность ответственному развитию технологий искусственного интеллекта. В будущем то, как эффективно контролировать и контролировать суперискусственный интеллект, станет ключевой задачей в области искусственного интеллекта, требующей постоянных усилий и сотрудничества в глобальном масштабе.