IT House informó el 18 de noviembre que hay rumores recientes de que los principales laboratorios de IA, incluidos OpenAI, Google y Anthropic, están encontrando dificultades para desarrollar modelos avanzados de IA. Estos informes atribuyen la causa a la falta de datos de capacitación de calidad, lo que genera rendimientos decrecientes que dificultan la inversión continua.
En este sentido, el director ejecutivo de OpenAI, Sam Altman, y el director ejecutivo de Anthropic, Dario Amodei, expresaron opiniones diferentes. Altman pareció responder a la prensa negativa publicando un mensaje críptico en las redes sociales sugiriendo que "no hay límites". Amodei comparte una opinión similar y, si bien reconoce que muchos factores pueden obstaculizar el desarrollo de la IA, es optimista en cuanto a que hay formas de superar estos obstáculos, incluido el uso de datos sintéticos.
IT House ha observado que el ex director general de Google, Eric Schmidt, también expresó su opinión sobre estos informes. Él cree que los grandes modelos de lenguaje sufrirán dos o tres iteraciones en los próximos cinco años . El rendimiento de estos modelos está aumentando a un ritmo sin precedentes y actualmente no hay evidencia de que esta tendencia de crecimiento esté a punto de detenerse . Aunque eventualmente nos encontraremos con un cuello de botella, todavía no hemos llegado a ese punto.
Schmidt predice que en el futuro surgirán modelos de IA más avanzados y potentes, especialmente en los campos de la física y las matemáticas. Explicó como ejemplo el modelo OpenAI-o1 de Strawberry AI recientemente lanzado por OpenAI. Sin embargo, Schmidt también advirtió que a medida que los modelos se vuelven más avanzados, aumentan los peligros potenciales. Señaló que estos modelos primitivos pueden ser mejores que los humanos para lanzar "ataques de día cero" . Además, los virus biológicos y los nuevos tipos de guerra también pueden convertirse en amenazas potenciales derivadas del desarrollo de la IA.