Des chercheurs de l'Université de Stanford ont développé un cadre « d'attribution unifiée » visant à résoudre les problèmes d'authenticité et de source de données des résultats de sortie du grand modèle linguistique (LLM). Ce cadre combine les deux méthodes d'attribution collaborative et d'attribution de contribution pour fournir un outil plus complet pour évaluer la fiabilité des résultats du LLM, particulièrement adapté aux domaines qui nécessitent une précision des informations extrêmement élevée. Cette recherche est d'une grande importance pour améliorer la crédibilité et la portée d'application du LLM, et fournit aux développeurs une méthode de vérification de modèle plus complète.
Des chercheurs de l'Université de Stanford ont proposé un cadre « d'attribution unifiée » qui intègre l'attribution collaborative et l'attribution de contribution pour vérifier l'authenticité des résultats d'un grand modèle et l'impact des données de formation. Ce cadre convient aux secteurs qui exigent une précision de contenu extrêmement élevée et fournit aux développeurs un outil de vérification de grands modèles plus complet.
L'émergence du cadre « d'attribution unifiée » marque une étape importante dans l'évaluation de la crédibilité des grands modèles de langage et ouvre une nouvelle direction pour la fiabilité et la sécurité des futurs modèles d'intelligence artificielle. Il contribuera à améliorer l’application du LLM dans divers domaines et à promouvoir son développement sain.