OpenAI anunció recientemente una escala interna para rastrear el progreso de sus grandes modelos de lenguaje en inteligencia artificial general (AGI). Este movimiento no solo demuestra las ambiciones de OpenAI en el campo de AGI, sino que también proporciona a la industria un nuevo estándar para medir el desarrollo de la IA. Esta escala divide la implementación de AGI en cinco niveles, desde los chatbots actuales hasta la IA que puede realizar el trabajo de toda la organización. Cada nivel representa una mejora significativa en las capacidades de IA. El editor de Downcodes explicará esto en detalle y analizará su importancia y potencial impacto.
Según Bloomberg, OpenAI ha creado una escala interna para rastrear el progreso de sus grandes modelos de lenguaje en inteligencia artificial general (AGI). Este movimiento no sólo demuestra las ambiciones de OpenAI en el campo de la AGI, sino que también proporciona a la industria un nuevo estándar para medir el desarrollo de la IA.
La escala se divide en cinco niveles: 1. Nivel 1: Los chatbots actuales, como ChatGPT, pertenecen a este nivel. 2. Nivel 2: Sistemas capaces de resolver problemas básicos a nivel de Doctorado. OpenAI afirma estar cerca de este nivel. 3. Nivel 3: Agentes de IA capaces de realizar acciones en nombre de los usuarios. 4. Nivel 4: IA capaz de crear nuevas innovaciones. 5. Nivel 5: IA que puede realizar el trabajo de toda la organización y se considera el paso final para lograr AGI.
Sin embargo, los expertos no están de acuerdo sobre el cronograma para la implementación de AGI. El director ejecutivo de OpenAI, Sam Altman, dijo en octubre de 2023 que aún faltan cinco años para AGI. Pero incluso si se pudiera realizar AGI, requeriría una inversión de miles de millones de dólares en recursos informáticos.
Vale la pena señalar que el anuncio de este estándar de puntuación coincide con el anuncio de OpenAI de cooperar con el Laboratorio Nacional de Los Álamos para explorar cómo utilizar de forma segura modelos avanzados de IA (como GPT-4) para ayudar en la investigación biológica. La colaboración tiene como objetivo establecer un conjunto de factores de seguridad y otros factores de evaluación para el gobierno de EE. UU. que puedan usarse para probar varios modelos de IA en el futuro.
Aunque OpenAI se negó a proporcionar detalles sobre cómo se asignan los modelos a estos niveles internos, Bloomberg informó que el liderazgo de la compañía demostró recientemente un proyecto de investigación que utiliza el modelo de IA GPT-4, argumentando que el proyecto demostró algunas habilidades nuevas similares a las capacidades de razonamiento humano.
Este método de cuantificar el progreso de la AGI ayuda a proporcionar una definición más rigurosa del desarrollo de la IA y evitar interpretaciones subjetivas. Sin embargo, también plantea algunas preocupaciones sobre la seguridad y la ética de la IA. En mayo, OpenAI disolvió su equipo de seguridad, y algunos ex empleados dijeron que la cultura de seguridad de la empresa había pasado a un segundo plano frente al desarrollo de productos, aunque OpenAI lo negó.
La medida de OpenAI proporciona nuevas direcciones y estándares para la investigación de AGI, pero también plantea preocupaciones sobre la seguridad y la ética. La realización final del AGI es aún incierta y requiere atención y precaución continuas. La futura dirección del desarrollo de la IA se verá afectada por esta escala y la investigación relacionada, y merece atención continua.