Récemment, Google, le géant dans le domaine de l'intelligence artificielle, a publié son dernier modèle de langage à grande échelle Gemini 1.5, qui possède une impressionnante fenêtre contextuelle d'un million de jetons et peut gérer un contenu équivalent à la longueur d'un livre complet ou même d'un film. Ce développement révolutionnaire a sans aucun doute attiré une large attention dans l'industrie, indiquant que la capacité des modèles linguistiques à grande échelle à traiter l'information a atteint un nouveau niveau. Cependant, haute capacité ne signifie pas haute précision, et les performances du Gemini 1.5 lors de tests réels ont suscité des discussions.
Google a récemment publié Gemini 1.5, un modèle doté d'une fenêtre contextuelle d'un million de jetons pouvant gérer des livres complets et même des films. Cependant, lors des tests, la précision du Gemini 1.5 n'était pas élevée, en particulier dans le test « une aiguille dans une botte de foin », où sa précision moyenne n'était que de 60 à 70 %. En outre, Google a également remis en question l'authenticité de la vidéo générée par OpenAI Sora, la qualifiant de fausse.
La sortie de Gemini 1.5 et les doutes de Google sur l'authenticité des vidéos de Sora mettent en évidence les défis rencontrés dans le développement de modèles de langage à grande échelle, à savoir comment améliorer leur précision et leur fiabilité tout en garantissant la capacité du modèle. Il ne s’agit pas seulement d’un problème auquel Google est confronté, mais aussi d’une direction dans laquelle l’ensemble du secteur de l’IA doit travailler ensemble. Dans les développements futurs, il faudra accorder davantage d’attention à la fiabilité et à la sécurité des modèles afin de garantir que la technologie de l’intelligence artificielle puisse réellement bénéficier à l’humanité.