Une nouvelle recherche de DeepMind montre que les grands modèles linguistiques peuvent surpasser les annotateurs humains en matière d'évaluation factuelle. L'étude utilise l'évaluateur SAFE pour une évaluation automatisée de la factualité et effectue une analyse comparative approfondie de l'ensemble de données LongFact, montrant que le grand modèle fonctionne bien dans le traitement d'informations factuelles longues. Cette recherche prouve non seulement les avantages des grands modèles dans le domaine de l’évaluation factuelle, mais plus important encore, l’équipe DeepMind a entièrement rendu open source tous les résultats de la recherche, fournissant ainsi des ressources précieuses aux universités et à l’industrie.
Le dernier article de DeepMind révèle les avantages des grands modèles dans l'évaluation factuelle. La recherche montre que les grands modèles de langage peuvent surpasser les performances des annotateurs humains et réaliser une évaluation factuelle automatique grâce à l'évaluateur SAFE. Les chercheurs ont effectué une analyse comparative approfondie à l’aide de l’ensemble de données LongFact, et les résultats ont montré que le grand modèle fonctionnait bien sur de longs aspects factuels. L’ensemble de l’étude met en évidence les avantages des grands modèles dans l’évaluation factuelle et est entièrement open source.Les résultats de cette recherche sont encourageants : ils favorisent non seulement les progrès de l’intelligence artificielle dans le domaine de l’évaluation factuelle, mais ouvrent également une nouvelle direction pour l’application future des grands modèles en matière de fiabilité de l’information. La stratégie open source ouvre également la voie à une recherche et à des applications plus larges, et il vaut la peine d’attendre avec impatience les développements ultérieurs.