El Premio Nobel de este año otorgó premios en los campos de la física y la química a los logros de la IA. ¿Qué significa esto y qué impacto tendrá? Demis Hassabis expresó su propia opinión en esta entrevista exclusiva.
En octubre, el cofundador y director ejecutivo de DeepMind, Demis Hassabis, se convirtió en uno de los tres coganadores del Premio Nobel de Química por AlphaFold.
Como software de inteligencia artificial, AlphaFold resuelve un problema planteado por la comunidad biológica hace 50 años: predecir la estructura de cada proteína conocida.
De hecho, AlphaFold, este modelo innovador, es sólo una parte de los logros de DeepMind. En los 15 años transcurridos desde su creación, DeepMind se ha convertido en uno de los laboratorios de IA más importantes del mundo.
Aunque se han agregado algunas consideraciones comerciales después de ser adquirida por Google y fusionarse con Google Brain, todavía se centran en los problemas más complejos y fundamentales de la ciencia y la ingeniería y, en última instancia, diseñan una IA poderosa que puede imitar o incluso reemplazar las capacidades cognitivas humanas.
Menos de 24 horas después de ganar el Premio Nobel, Demis Hassabis aceptó una entrevista con la reportera del Financial Times Madhumita Murgia y discutió los principales problemas que DeepMind resolverá a continuación, el papel de la IA en el progreso científico y sus propios pensamientos sobre el camino hacia AGI. Previsión de perspectivas.
Demis Hassabis en la sede de Google DeepMind en Londres
El próximo desafío de AI4Science
El progreso relacionado de AlphaFold 3 demuestra hasta cierto punto el siguiente paso de DeepMind en el campo de la biología: comprender las interacciones dentro de los organismos, en última instancia modelar todo el camino e incluso construir una célula virtual.
Además, gracias a los esfuerzos de Isomorphic, filial de DeepMind, también están entrando en el campo del descubrimiento de fármacos: diseñando nuevos compuestos, encontrando sitios de unión y prediciendo las propiedades, la absorción, la toxicidad, etc. de estas sustancias.
En la actualidad, Isomorphic también ha cooperado con Eli Lilly, Novartis y otras empresas para llevar a cabo 6 proyectos de investigación y desarrollo de fármacos, que se espera que logren avances clínicos en los próximos años. Se espera reducir significativamente el tiempo necesario para el descubrimiento de fármacos. ayudando así a curar algunas enfermedades.
Además del campo de la biología, Hassabis también expresó que está muy entusiasmado con el trabajo en el campo del diseño de materiales.
El año pasado, publicaron un artículo en Nature proponiendo una herramienta de inteligencia artificial llamada GNoME para lograr el diseño de materiales de nivel AlphaFold 1 y descubrieron un total de 2,2 millones de nuevos cristales en el siguiente paso, necesitan trabajar duro para alcanzar el nivel AlphaFold 2;
Dirección del artículo: https://www.nature.com/articles/s41586-023-06735-9
En términos de matemáticas, AlphaProof y AlphaGeometry alcanzaron el nivel de medalla de plata de la OMI este año. En los próximos años, DeepMind intentará utilizar el poder de la IA para resolver verdaderamente una conjetura matemática importante.
Para los campos de la energía y el clima, el modelo Graphcast publicado en Science el año pasado puede predecir el tiempo para los próximos 10 días con una precisión sin precedentes en un minuto.
Dirección del artículo: https://www.science.org/token/author-tokens/ST-1550/full
La tecnología involucrada puede ayudar con el modelado climático, que es muy importante en áreas como la lucha contra el cambio climático y la optimización de las redes eléctricas.
Se puede ver que el plan futuro de DeepMind se centra más en las aplicaciones y la práctica de la ingeniería, con el objetivo de transformar aún más la tecnología en trabajos que puedan afectar el mundo real, en lugar de pura investigación básica.
En este sentido, Hassabis afirmó que el "plegamiento de proteínas" es un "desafío" "inesperado" y no puede exigir que todos los problemas tengan tal contenido de oro.
El problema del "plegamiento de proteínas" es tan central e importante que equivale al último teorema de Fermat en el campo de la biología. Sin embargo, desafortunadamente, no hay muchos problemas que sean lo suficientemente importantes y explorados durante el tiempo suficiente como para ser llamados. "desafío."
El Premio Nobel será un momento decisivo para la IA
Los Premios Nobel de Física y Química de este año se otorgaron uno tras otro a académicos de IA. Es interesante, pero nadie puede decir por qué el comité de premios tomó tal decisión.
¿Cómo entiende esto Hassabis?
Dijo que esto es muy parecido a una "declaración" emitida deliberadamente por el comité, y también se convertirá en un momento decisivo para la IA, marcando que su madurez tecnológica ha sido suficientemente reconocida como para ayudar al descubrimiento científico.
AlphaFold es el mejor ejemplo, mientras que los premios de Hinton y Hopfield son por trabajos de algoritmos más básicos y de bajo nivel.
Hassabis dijo que espera que cuando mire hacia atrás dentro de 10 años, AlphaFold presagie una nueva era dorada de descubrimientos científicos en todos estos campos diferentes.
Esto también plantea una pregunta interesante: con herramientas como AlphaFold, los científicos ya no necesitan gastar demasiado tiempo y energía haciendo predicciones. ¿Significa esto que debemos explorar nuevos campos? ¿O incluso cambiar la forma en que aprendes conceptos científicos?
Cabe señalar que los sistemas de IA son una nueva clase única de herramientas. Tienen algunas funciones inherentes y, por lo tanto, no encajan en la clasificación tradicional de herramientas.
Aunque actualmente herramientas como AlphaFold solo pueden hacer predicciones, en cierto sentido, la predicción también es parte de la "comprensión". Si puedes predecir, eso trae comprensión.
Incluso si el resultado previsto es lo suficientemente importante, como la estructura de una proteína, entonces es valioso en sí mismo.
Desde una perspectiva más amplia, la ciencia contiene muchos niveles de "abstracción".
Por ejemplo, todo el campo de la química se basa en la física. No es necesario comprender todos los principios físicos, como la mecánica cuántica, para hablar sobre compuestos atómicos y comprender la química en su propio nivel abstracto.
En el campo de la biología, podemos estudiar la vida, pero todavía no sabemos cómo evolucionó o surgió, y ni siquiera podemos definir correctamente el concepto de “vida”.
De manera similar, la IA es como una capa de abstracción que las personas que construyen programas y redes entienden a nivel físico, pero luego las predicciones que surgen son como propiedades emergentes que podemos predecir por nuestra cuenta a nivel científico.
AGI se acerca, la comprensión es importante
Ya sean ciencias naturales o sistemas de inteligencia artificial, la "comprensión" es muy importante.
La inteligencia artificial es una disciplina de ingeniería, lo que significa que primero debes construir un sistema antes de poder estudiar y comprender el objeto, mientras que los fenómenos en las ciencias naturales no necesitan ser fabricados, existen de forma natural.
Aunque los sistemas de IA son artefactos diseñados, esto no significa que sean más fáciles de estudiar que los fenómenos naturales. Incluso se puede esperar que sean tan difíciles de entender, desarmar y deconstruir como las redes neuronales biológicas.
Esto está sucediendo ahora, pero hemos logrado algunos avances. Por ejemplo, existe un campo especializado llamado "interpretación mecanicista", que utiliza conceptos y herramientas de neurociencia para analizar el "cerebro virtual" del sistema de IA.
Hassabis es muy optimista sobre la explicabilidad de la IA y cree que en los próximos años se lograrán grandes avances en la comprensión de los sistemas de IA.
Por supuesto, la IA también puede aprender a explicarse. Imagine combinar AlphaFold con un sistema de dominio del idioma para que pueda predecir y explicar lo que está haciendo al mismo tiempo.
Actualmente, muchos laboratorios líderes están reduciendo el alcance de su exploración y centrándose en escalar Transformers. Es innegable que esta es una buena dirección y se convertirá en un componente clave del sistema AGI final, pero DeepMind continuará persistiendo en la exploración y la investigación innovadora.
De hecho, DeepMind tiene la plataforma de investigación más amplia y profunda hasta la fecha para inventar la próxima generación de Transformers como parte de su legado científico.
Estas exploraciones son necesarias, en parte, para ver hasta dónde podemos llegar y saber qué es necesario explorar.
Es importante explorar nuevas ideas y llevar ideas interesantes a su máximo potencial. Si no comprende las limitaciones absolutas de sus ideas actuales, no sabrá qué avances se necesitan.
La larga ventana de contexto de LLM es un buen ejemplo. El contexto del token 2M creado por Google Gemini 1.5 Pro es una innovación genial que nadie más puede copiar todavía.
Oficina de Google DeepMind en Londres
Sólo entendiendo la IA podremos tener una AGI segura
Hassabis y muchos líderes tecnológicos han predicho que se necesitarán entre 5 y 20 años para realizar la AGI.
Si queremos utilizar métodos científicos para lograr este objetivo, significa más tiempo, energía y pensamiento, centrándonos en las herramientas de análisis y comprensión de la IA, la evaluación comparativa y la evaluación, lo que requiere 10 veces la inversión actual.
Estos aportes deberían provenir no sólo de las empresas de tecnología, sino también de las agencias de seguridad de la IA, el mundo académico y la sociedad civil. Necesitamos comprender qué están haciendo los sistemas de IA, sus limitaciones y cómo controlarlos y protegerlos.
La "comprensión" es una parte importante del método científico, pero falta en la ingeniería pura. La ingeniería se limita a mirar: ¿funciona este enfoque? Si no funciona, inténtalo de nuevo, está lleno de prueba y error.
La ciencia es lo que se puede entender antes de que suceda algo. Idealmente, esta comprensión significa menos errores. Esto es importante con la IA y la AGI porque al aplicar una tecnología tan poderosa, se desea cometer el menor número de errores posible.
Quizás dentro de unos años, a medida que nos acerquemos a la AGI, surja una pregunta social: ¿qué valor queremos que tengan estos sistemas? ¿Qué objetivos deberíamos fijarles?
Esto es diferente de las cuestiones técnicas. El aspecto técnico se centra en cómo mantener el sistema encaminado y avanzando hacia los objetivos establecidos, pero no nos ayuda a decidir cuáles deberían ser los objetivos.
Para un sistema AGI seguro, tanto las cuestiones técnicas como las sociales deben ser correctas, pero Hassabis cree que esto último puede ser más difícil de lograr.
Una serie de cuestiones como los objetivos y los valores involucrarán más a las Naciones Unidas y a la geopolítica, e incluso a las ciencias sociales y la filosofía, y requerirán amplios debates con todos los niveles de gobierno, el mundo académico y la sociedad civil.
Incluso si faltan 10 años para AGI, no tenemos mucho tiempo para resolver estos problemas, por lo que las discusiones en esta área deberían comenzar ahora, trayendo a la mesa voces de una variedad de fuentes y perspectivas.