A OpenAI anunciou recentemente uma escala interna para acompanhar o progresso dos seus grandes modelos de linguagem em inteligência artificial geral (AGI). Este movimento não só demonstra as ambições da OpenAI no campo da AGI, mas também fornece à indústria um novo padrão para medir o desenvolvimento da IA. Esta escala divide a implementação da AGI em cinco níveis, desde os chatbots atuais até à IA que pode realizar o trabalho de toda a organização. Cada nível representa uma melhoria significativa nas capacidades de IA. O editor do Downcodes explicará isso detalhadamente e analisará seu significado e impacto potencial.
Segundo a Bloomberg, a OpenAI criou uma escala interna para acompanhar o progresso de seus grandes modelos de linguagem em inteligência artificial geral (AGI). Esta mudança não só demonstra as ambições da OpenAI no campo da AGI, mas também fornece à indústria um novo padrão para medir o desenvolvimento da IA.
A escala é dividida em cinco níveis: 1. Nível 1: Os chatbots atuais, como o ChatGPT, pertencem a este nível. 2. Nível 2: Sistemas capazes de resolver problemas básicos ao nível do doutoramento. OpenAI afirma estar perto deste nível. 3. Nível 3: Agentes de IA capazes de realizar ações em nome dos usuários. 4. Nível 4: IA capaz de criar inovações. 5. Nível 5: IA que pode realizar o trabalho de toda a organização e é considerada a etapa final para alcançar a AGI.
No entanto, os especialistas discordam quanto ao cronograma para a implementação da AGI. O CEO da OpenAI, Sam Altman, disse em outubro de 2023 que ainda faltam cinco anos para a AGI. Mas mesmo que a AGI possa ser concretizada, será necessário um investimento de milhares de milhões de dólares em recursos computacionais.
É importante notar que o anúncio deste padrão de pontuação coincide com o anúncio da OpenAI de cooperar com o Laboratório Nacional de Los Alamos para explorar como utilizar com segurança modelos avançados de IA (como o GPT-4) para auxiliar a investigação biológica. A colaboração visa estabelecer um conjunto de fatores de segurança e outros fatores de avaliação para o governo dos EUA que podem ser usados para testar vários modelos de IA no futuro.
Embora a OpenAI tenha se recusado a fornecer detalhes sobre como os modelos são atribuídos a esses níveis internos, a Bloomberg informou que a liderança da empresa demonstrou recentemente um projeto de pesquisa usando o modelo GPT-4 AI, argumentando que o projeto demonstrou algumas novas habilidades semelhantes às capacidades de raciocínio humano.
Este método de quantificar o progresso da AGI ajuda a fornecer uma definição mais rigorosa do desenvolvimento da IA e a evitar interpretações subjetivas. No entanto, também levanta algumas preocupações sobre a segurança e a ética da IA. Em maio, a OpenAI dissolveu sua equipe de segurança, com alguns ex-funcionários dizendo que a cultura de segurança da empresa havia ficado em segundo plano no desenvolvimento de produtos, embora a OpenAI negasse isso.
A mudança da OpenAI fornece novas direções e padrões para a pesquisa AGI, mas também levanta preocupações sobre segurança e ética. A realização final da AGI ainda é incerta e requer atenção e cautela contínuas. A direção futura do desenvolvimento da IA será afetada por esta escala e pela investigação relacionada, e merece atenção contínua.