La sortie du modèle Gemini 1.5 Pro de Google a augmenté la longueur du contexte jusqu'à un nombre étonnant de 10 millions de jetons. Cette avancée a déclenché de nombreuses discussions sur l'orientation future de la technologie de génération d'amélioration de la récupération (RAG). L’amélioration des capacités de saisie de texte long remplacera-t-elle complètement la technologie RAG ? Ou la technologie RAG jouera-t-elle encore un rôle important ? Cet article fournira une analyse approfondie de cela et explorera les avantages de Google en matière de puissance de calcul et son impact sur l’industrie.
Le modèle Gemini 1.5 Pro publié par Google a augmenté la longueur du contexte à 10 millions de jetons, déclenchant des discussions au sein de l'industrie sur l'avenir de la technologie RAG. Certaines personnes pensent que la saisie de texte long peut remplacer RAG, mais d'autres pensent que RAG jouera toujours un rôle important. L'avantage de Google en termes de puissance de calcul le place devant d'autres sociétés en termes d'exploration contextuelle, ce qui peut avoir un impact sur certaines startups.
La sortie du modèle Google Gemini 1.5 Pro marque une avancée considérable dans les capacités de traitement de l'information des modèles d'IA. Son impact sur la technologie RAG et son impact potentiel sur l'ensemble du secteur de l'IA méritent une attention continue. À l’avenir, le traitement de textes longs et la technologie RAG pourraient coexister et se développer, favorisant ainsi les progrès de la technologie de l’IA.