Le prix Nobel de cette année a décerné des prix dans les domaines de la physique et de la chimie aux réalisations en matière d'IA. Qu'est-ce que cela signifie et quel impact cela aura-t-il ? Demis Hassabis a exprimé ses propres opinions dans cette interview exclusive.
En octobre, Demis Hassabis, cofondateur et PDG de DeepMind, est devenu l'un des trois co-lauréats du prix Nobel de chimie pour AlphaFold.
En tant que logiciel d'intelligence artificielle, AlphaFold résout un problème posé par la communauté biologique il y a 50 ans : prédire la structure de chaque protéine connue.
En fait, AlphaFold, ce modèle révolutionnaire, n’est qu’une partie des réalisations de DeepMind. En 15 ans depuis sa création, DeepMind est devenu l’un des laboratoires d’IA les plus importants au monde.
Bien que certaines considérations commerciales aient été ajoutées après l'acquisition par Google et la fusion avec Google Brain, elles se concentrent toujours sur les problèmes les plus complexes et les plus fondamentaux de la science et de l'ingénierie, et finalement sur la conception d'une IA puissante qui peut imiter ou même remplacer les capacités cognitives humaines.
Moins de 24 heures après avoir remporté le prix Nobel, Demis Hassabis a accepté une interview avec la journaliste du Financial Times Madhumita Murgia et a discuté des problèmes majeurs que DeepMind résoudra ensuite, du rôle de l'IA dans le progrès scientifique et de ses propres réflexions sur la voie de l'AGI. Prévisions de perspectives.
Demis Hassabis au siège de Google DeepMind à Londres
Le prochain défi d’AI4Science
Les progrès connexes d'AlphaFold 3 démontrent dans une certaine mesure la prochaine étape de DeepMind dans le domaine de la biologie : comprendre les interactions au sein des organismes, modéliser finalement l'ensemble du cheminement et même construire une cellule virtuelle.
En outre, grâce aux efforts de Isomorphic, filiale de DeepMind, ils entrent également dans le domaine de la découverte de médicaments - en concevant de nouveaux composés, en trouvant des sites de liaison et en prédisant les propriétés, l'absorption, la toxicité, etc. de ces substances.
À l'heure actuelle, Isomorphic a également coopéré avec Eli Lilly, Novartis et d'autres sociétés pour mener à bien 6 projets de recherche et développement de médicaments, qui devraient faire des progrès cliniques au cours des prochaines années. Elle espère réduire considérablement le temps nécessaire à la découverte de médicaments. aidant ainsi à guérir certaines maladies.
Outre le domaine de la biologie, Hassabis s'est également dit très enthousiasmé par le travail dans le domaine de la conception de matériaux.
L'année dernière, ils ont publié un article dans Nature proposant un outil d'IA appelé GNoME pour atteindre la conception de matériaux de niveau AlphaFold 1 et ont découvert un total de 2,2 millions de nouveaux cristaux. Dans la prochaine étape, ils doivent travailler dur pour atteindre le niveau AlphaFold 2 ;
Adresse papier : https://www.nature.com/articles/s41586-023-06735-9
En termes de mathématiques, AlphaProof et AlphaGeometry ont atteint le niveau de médaille d'argent de l'OMI cette année. Au cours des prochaines années, DeepMind tentera d'utiliser la puissance de l'IA pour véritablement résoudre une conjecture mathématique importante.
Pour les domaines de l’énergie et du climat, le modèle Graphcast publié dans Science l’année dernière peut prédire la météo pour les 10 prochains jours avec une précision sans précédent en une minute.
Adresse de l'article : https://www.science.org/token/author-tokens/ST-1550/full
La technologie impliquée pourrait contribuer à la modélisation du climat, ce qui est très important dans des domaines tels que la lutte contre le changement climatique et l’optimisation des réseaux électriques.
On peut constater que le futur projet de DeepMind se concentre davantage sur les applications et les pratiques d'ingénierie, dans le but de transformer davantage la technologie en travaux pouvant affecter le monde réel, plutôt que sur la recherche fondamentale pure.
À cet égard, Hassabis a déclaré que le « repliement des protéines » est un « défi » « inattendu » et ne peut pas exiger que chaque problème ait une telle teneur en or.
Le problème du « repliement des protéines » est si central et si important qu’il équivaut au dernier théorème de Fermat dans le domaine de la biologie. Cependant, malheureusement, il n’existe pas beaucoup de problèmes suffisamment importants et explorés suffisamment longtemps pour être qualifiés de « problème ». "défi."
Le prix Nobel sera un moment décisif pour l’IA
Les prix Nobel de physique et de chimie de cette année ont été décernés les uns après les autres aux chercheurs en IA. C'est intéressant, mais personne ne peut dire pourquoi le comité d'attribution des prix a pris une telle décision.
Comment Hassabis comprend-il cela ?
Il a déclaré que cela ressemble beaucoup à une « déclaration » délibérément émise par le comité et qu'elle constituera également un moment décisif pour l'IA, marquant que sa maturité technologique a été suffisamment reconnue pour aider à la découverte scientifique.
AlphaFold en est le meilleur exemple, tandis que les récompenses de Hinton et Hopfield récompensent des travaux algorithmiques plus basiques et de bas niveau.
Hassabis a déclaré qu'il espérait que, dans 10 ans, AlphaFold annoncerait un nouvel âge d'or de la découverte scientifique dans tous ces différents domaines.
Cela soulève également une question intéressante : avec des outils comme AlphaFold, les scientifiques n’ont plus besoin de consacrer trop de temps et d’énergie à faire des prédictions. Cela signifie-t-il que nous devons explorer de nouveaux domaines ? Ou même changer la façon dont vous apprenez les concepts scientifiques ?
Il convient de noter que les systèmes d’IA constituent une nouvelle classe d’outils unique. Ils ont certaines fonctions inhérentes et ne rentrent donc pas dans la classification traditionnelle des outils.
Bien que des outils tels qu’AlphaFold ne puissent actuellement faire que des prédictions, dans un sens, la prédiction fait également partie de la « compréhension ». Si vous pouvez prédire, cela apporte de la compréhension.
Même si le résultat prévu est suffisamment important, comme la structure d’une protéine, il est alors précieux en soi.
D'un point de vue plus large, la science contient de nombreux niveaux « d'abstraction ».
Par exemple, tout le domaine de la chimie est basé sur la physique. Vous n'avez pas besoin de comprendre tous les principes physiques tels que la mécanique quantique pour parler de composés atomiques et comprendre la chimie à son propre niveau abstrait.
Dans le domaine de la biologie, nous pouvons étudier la vie, mais nous ne savons toujours pas comment la vie a évolué ou est apparue, et nous ne pouvons même pas définir correctement le concept de « vie ».
De la même manière, l’IA est comme une couche d’abstraction que les personnes qui construisent des programmes et des réseaux comprennent au niveau physique, mais les prédictions qui en ressortent sont alors comme des propriétés émergentes que nous pouvons prédire par nous-mêmes à un niveau scientifique.
AGI approche, la compréhension est importante
Qu'il s'agisse de sciences naturelles ou de systèmes d'intelligence artificielle, la « compréhension » est très importante.
L'intelligence artificielle est une discipline d'ingénierie, ce qui signifie que vous devez d'abord construire un système avant de pouvoir étudier et comprendre l'objet ; même si les phénomènes des sciences naturelles n'ont pas besoin d'être fabriqués, ils existent naturellement.
Bien que les systèmes d’IA soient des artefacts artificiels, cela ne signifie pas qu’ils sont plus faciles à étudier que les phénomènes naturels. On peut même s’attendre à ce qu’ils soient aussi difficiles à comprendre, à démonter et à déconstruire que les réseaux neuronaux biologiques.
Cela se produit actuellement, mais nous avons fait quelques progrès. Par exemple, il existe un domaine spécialisé appelé « interprétation mécaniste », qui utilise des concepts et des outils des neurosciences pour analyser le « cerveau virtuel » du système d'IA.
Hassabis est très optimiste quant à l’explicabilité de l’IA et estime que de grands progrès seront réalisés dans la compréhension des systèmes d’IA au cours des prochaines années.
Bien entendu, l’IA peut aussi apprendre à s’expliquer. Imaginez combiner AlphaFold avec un système de maîtrise du langage afin qu'il puisse prédire et expliquer ce qu'il fait en même temps.
Actuellement, de nombreux laboratoires de premier plan réduisent la portée de leur exploration et se concentrent sur la mise à l’échelle des Transformers. Il est indéniable qu’il s’agit d’une bonne direction et qu’elle deviendra un élément clé du système AGI final, mais DeepMind continuera à persister dans l’exploration et la recherche innovante.
En fait, DeepMind dispose à ce jour de la plate-forme de recherche la plus vaste et la plus approfondie pour inventer la prochaine génération de transformateurs dans le cadre de son héritage scientifique.
Ces explorations sont nécessaires, en partie, pour voir jusqu’où nous pouvons aller afin de savoir ce qui doit être exploré.
Il est important d’explorer de nouvelles idées et de tirer pleinement parti d’idées passionnantes. Si vous ne comprenez pas les limites absolues de vos idées actuelles, vous ne saurez pas quelles avancées sont nécessaires.
La longue fenêtre contextuelle de LLM en est un bon exemple. Le contexte de jeton 2M créé par Google Gemini 1.5 Pro est une innovation intéressante que personne d'autre ne peut encore copier.
Bureau de Google DeepMind à Londres
Ce n'est qu'en comprenant l'IA que nous pourrons avoir une AGI sûre
Hassabis et de nombreux leaders technologiques ont prédit qu'il faudrait entre 5 et 20 ans pour réaliser l'AGI.
Si nous voulons utiliser des méthodes scientifiques pour atteindre cet objectif, cela signifie plus de temps, d’énergie et de réflexion, en nous concentrant sur les outils de compréhension et d’analyse de l’IA, de benchmarking et d’évaluation, ce qui nécessite 10 fois l’investissement actuel.
Ces contributions devraient provenir non seulement des entreprises technologiques, mais également des agences de sécurité de l’IA, du monde universitaire et de la société civile. Nous devons comprendre ce que font les systèmes d’IA, leurs limites et comment contrôler et protéger ces systèmes.
La « compréhension » est une partie importante de la méthode scientifique, mais elle fait défaut dans l'ingénierie pure. L’ingénierie se contente de regarder : cette approche fonctionne-t-elle ? Si cela ne fonctionne pas, réessayez, c'est plein d'essais et d'erreurs.
La science est ce qui peut être compris avant que quoi que ce soit n’arrive. Idéalement, cette compréhension signifie moins d’erreurs. Ceci est important avec l’IA et l’AGI, car lorsque vous appliquez une technologie aussi puissante, vous souhaitez commettre le moins d’erreurs possible.
Peut-être que dans quelques années, à mesure que nous nous rapprocherons de l’AGI, une question sociale se posera : quelle valeur voulons-nous que ces systèmes aient ? Quels objectifs devrions-nous leur fixer ?
Ceci est différent des problèmes techniques. L’aspect technique se concentre sur la manière de maintenir le système sur la bonne voie et d’avancer vers les objectifs fixés, mais il ne nous aide pas à décider quels devraient être les objectifs.
Pour un système AGI sécurisé, les problèmes techniques et les problèmes sociaux doivent être résolus, mais Hassabis pense que ces derniers pourraient être plus difficiles à résoudre.
Une série de questions telles que les objectifs et les valeurs impliqueront davantage l’ONU et la géopolitique, voire les sciences sociales et la philosophie, et nécessiteront des discussions approfondies avec tous les niveaux de gouvernement, le monde universitaire et la société civile.
Même si l’AGI est dans 10 ans, nous n’avons pas beaucoup de temps pour résoudre ces problèmes, c’est pourquoi les discussions dans ce domaine devraient commencer dès maintenant, en réunissant les voix de diverses sources et perspectives.