OpenAI a récemment annoncé une échelle interne pour suivre les progrès de ses grands modèles de langage en matière d'intelligence artificielle générale (AGI). Cette décision démontre non seulement les ambitions d'OpenAI dans le domaine de l'AGI, mais fournit également à l'industrie une nouvelle norme pour mesurer le développement de l'IA. Cette échelle divise la mise en œuvre de l'AGI en cinq niveaux, depuis les chatbots d'aujourd'hui jusqu'à l'IA capable d'effectuer le travail de l'ensemble de l'organisation. Chaque niveau représente une amélioration significative des capacités de l'IA. L’éditeur de Downcodes expliquera cela en détail et analysera sa signification et son impact potentiel.
Selon Bloomberg, OpenAI a créé une échelle interne pour suivre les progrès de ses grands modèles de langage en intelligence artificielle générale (AGI). Cette décision démontre non seulement les ambitions d’OpenAI dans le domaine de l’AGI, mais fournit également à l’industrie une nouvelle norme pour mesurer le développement de l’IA.
L'échelle est divisée en cinq niveaux : 1. Niveau 1 : les chatbots actuels, tels que ChatGPT, appartiennent à ce niveau. 2. Niveau 2 : Systèmes capables de résoudre des problèmes fondamentaux au niveau du doctorat. OpenAI prétend être proche de ce niveau. 3. Niveau 3 : agents IA capables d'agir pour le compte des utilisateurs. 4. Niveau 4 : IA capable de créer de nouvelles innovations. 5. Niveau 5 : IA capable d'effectuer le travail de l'ensemble de l'organisation et considérée comme la dernière étape vers la réalisation de l'AGI.
Cependant, les experts ne sont pas d’accord sur le calendrier de mise en œuvre de l’AGI. Le PDG d’OpenAI, Sam Altman, a déclaré en octobre 2023 qu’AGI était encore dans cinq ans. Mais même si l’AGI peut être réalisée, elle nécessitera un investissement de milliards de dollars en ressources informatiques.
Il convient de noter que l’annonce de cette norme de notation coïncide avec l’annonce d’OpenAI de coopérer avec le laboratoire national de Los Alamos pour explorer comment utiliser en toute sécurité des modèles d’IA avancés (tels que GPT-4) pour faciliter la recherche biologique. La collaboration vise à établir un ensemble de facteurs de sécurité et d’autres facteurs d’évaluation pour le gouvernement américain qui pourront être utilisés pour tester divers modèles d’IA à l’avenir.
Bien qu'OpenAI ait refusé de fournir des détails sur la manière dont les modèles sont attribués à ces niveaux internes, Bloomberg a rapporté que la direction de l'entreprise avait récemment démontré un projet de recherche utilisant le modèle d'IA GPT-4, arguant que le projet démontrait de nouvelles compétences similaires aux capacités de raisonnement humain.
Cette méthode de quantification des progrès de l’AGI permet de fournir une définition plus rigoureuse du développement de l’IA et d’éviter toute interprétation subjective. Cependant, cela soulève également certaines inquiétudes quant à la sécurité et à l’éthique de l’IA. En mai, OpenAI a dissous son équipe de sécurité, certains anciens employés affirmant que la culture de sécurité de l'entreprise était passée au second plan par rapport au développement de produits, bien qu'OpenAI ait nié cela.
La décision d'OpenAI fournit de nouvelles orientations et normes pour la recherche AGI, mais elle soulève également des préoccupations en matière de sécurité et d'éthique. La réalisation finale de l’AGI est encore incertaine et nécessite une attention et une prudence continues. L’orientation future du développement de l’IA sera affectée par cette ampleur et par la recherche connexe, et mérite une attention continue.