Recientemente ha habido una acalorada discusión en el campo de la inteligencia artificial y hay constantes disputas sobre si su desarrollo ha llegado a un cuello de botella. El cofundador de Anthropic, Jack Clark, publicó recientemente un artículo en el que expresa optimismo sobre las perspectivas de desarrollo de la IA y expuso sus puntos de vista utilizando el modelo o3 de OpenAI como ejemplo. Él cree que el desarrollo de la IA no está estancado, sino que se está acelerando, pero se necesitan métodos más innovadores, como combinar el aprendizaje por refuerzo y potencia informática adicional.
¿Ha llegado el desarrollo de la inteligencia artificial a un cuello de botella? Jack Clark, cofundador de Anthropic, dejó claro en un boletín reciente que no es así. Él cree que el modelo o3 publicado recientemente por OpenAI muestra que el desarrollo de la IA no se ha desacelerado, sino que puede estar acelerándose.
En un boletín titulado "Importar IA", Clark refuta las afirmaciones de que el desarrollo de la IA esté llegando a sus límites. "Cualquiera que diga que el progreso se está desacelerando o que el escalamiento está encontrando un cuello de botella está equivocado", escribió. Señaló que el nuevo modelo o3 de OpenAI es una prueba de que todavía hay un enorme espacio para el crecimiento de la IA, pero será necesario un enfoque diferente. . En lugar de simplemente ampliar el modelo, los modelos o3 aprovechan el aprendizaje por refuerzo y la potencia informática adicional en tiempo de ejecución.
Clark cree que esta capacidad de "pensar en voz alta" en tiempo de ejecución abre posibilidades de escalamiento completamente nuevas. Espera que esta tendencia se acelere en 2025, cuando las empresas comiencen a combinar métodos tradicionales, como modelos base más grandes, con nuevas formas de utilizar la informática durante el entrenamiento y la inferencia. Esto coincide con lo que dijo OpenAI cuando lanzó por primera vez su serie de modelos o.
Clark advirtió que la mayoría de la gente probablemente no anticipó la rapidez con la que se desarrollaría la IA. "Creo que básicamente nadie se da cuenta de cuán importantes serán los avances en IA en el futuro".
Sin embargo, señaló que el costo computacional es un desafío importante. La versión más avanzada de o3 requiere 170 veces la potencia informática de su versión base, que ya requiere más recursos que o1, que a su vez requiere más recursos que GPT-4o.
Clark explicó que estos nuevos sistemas hacen que los costos sean más difíciles de predecir. En el pasado, el costo se determinaba simplemente por el tamaño del modelo y la longitud de producción. Pero para o3, los requisitos de recursos pueden variar según tareas específicas.
A pesar de estos desafíos, Clark sigue convencido de que la combinación de métodos de escalamiento tradicionales con otros nuevos conducirá a avances en IA "más significativos" en 2025 de los que hemos visto hasta ahora.
La predicción de Clark despertó interés en los propios planes de Anthropic. La compañía aún tiene que lanzar un modelo de "inferencia" o "tiempo de prueba" capaz de competir con la serie o de OpenAI o Gemini Flash Thinking de Google.
El modelo insignia Opus 3.5, anunciado anteriormente, permanece en suspenso, supuestamente porque sus mejoras de rendimiento no son suficientes para justificar los costos operativos. Aunque algunos creen que esto es indicativo de desafíos más amplios al escalar modelos de lenguaje grandes, Opus 3.5 no es un completo fracaso. Se dice que el modelo ayudó a desarrollar el nuevo Sonnet 3.5, que se ha convertido en el modelo de lenguaje más popular del mercado.
El punto de vista de Jack Clark proporciona una nueva perspectiva sobre la dirección del desarrollo futuro de la inteligencia artificial. Aunque los costos informáticos siguen siendo un gran desafío, la aplicación de métodos innovadores y el desarrollo continuo de modelos grandes indican que la tecnología de inteligencia artificial marcará el comienzo de un cambio más significativo. progreso. En el futuro, veremos a la IA demostrar sus poderosas capacidades en más campos.