A OpenAI publicou seu primeiro artigo sobre superalinhamento, explorando os enormes desafios e oportunidades que a inteligência superartificial pode trazer. O artigo propõe o conceito de “generalização fraca para forte” e demonstra a viabilidade do GPT-2 supervisionar o GPT-4 por meio de experimentos. No entanto, também revela a enorme dificuldade na supervisão fraca de modelos sobre-humanos. Para promover a investigação neste campo, a OpenAI anunciou generosamente uma doação de 10 milhões de dólares para encorajar os investigadores globais de inteligência artificial a participarem activamente e a abordarem conjuntamente os riscos potenciais representados pela superinteligência artificial. Este é um marco para a pesquisa na área de segurança de inteligência artificial.
Este plano de investigação e financiamento da OpenAI não só aponta a direção para a investigação em segurança da inteligência artificial, mas também destaca o seu compromisso com o desenvolvimento responsável da tecnologia de inteligência artificial. No futuro, a forma de supervisionar e controlar eficazmente a superinteligência artificial tornar-se-á um desafio fundamental no domínio da inteligência artificial, exigindo esforços sustentados e cooperação à escala global.