Des chercheurs de l’Université de Stanford ont réalisé une percée impressionnante ! Ils ont utilisé les données de Wikipédia pour former un modèle de langage à grande échelle appelé WikiChat et ont réussi à résoudre le problème de « l'illusion » qui affecte de nombreux grands modèles. WikiChat fonctionne bien en termes d'exactitude factuelle et d'autres mesures clés, dépassant même GPT-4 et menant d'autres modèles similaires dans de nombreux aspects. Cette recherche établit une nouvelle référence en matière de fiabilité et de praticité des grands modèles de langage et annonce une nouvelle direction pour le développement futur de l’intelligence artificielle.
Des chercheurs de l'Université de Stanford ont utilisé les données de Wikipédia pour former un grand modèle, nommé WikiChat, grâce à l'optimisation et à l'amélioration, ils ont réussi à résoudre le problème des hallucinations du grand modèle et ont obtenu de bons résultats en termes de précision factuelle et d'autres indicateurs. Leurs meilleures performances dépassent GPT-4 et sont en tête des autres modèles sous plusieurs aspects.
Le succès de WikiChat ne réside pas seulement dans ses excellentes performances, mais surtout dans le fait qu'il fournit de nouvelles idées et méthodes pour résoudre le problème de l'illusion des grands modèles. Ce résultat de recherche favorisera grandement l’application de modèles de langage à grande échelle dans divers domaines et jettera une base solide pour le développement d’une technologie d’intelligence artificielle plus fiable et digne de confiance. Il vaut la peine d’attendre avec impatience davantage d’applications et d’améliorations basées sur cela à l’avenir. .