Google a récemment publié un nouveau framework appelé ASPIRE, qui vise à améliorer la précision des grands modèles de langage (LLM) dans les situations de faible confiance. Ce cadre permet une prédiction sélective de l'auto-évaluation en combinant des techniques telles que le réglage fin des tâches et l'échantillonnage des réponses, résolvant ainsi efficacement le problème de l'étalonnage de la confiance LLM. Cette avancée revêt une grande importance pour améliorer la fiabilité et la praticité du LLM, marquant une nouvelle étape dans le développement de la technologie LLM.
Google a récemment lancé le framework ASPIRE, conçu pour aider les grands modèles de langage à porter des jugements corrects dans des conditions de faible confiance. Le cadre est basé sur l'auto-évaluation de prédictions sélectives, mises en œuvre via des modules techniques tels que le réglage fin des tâches et l'échantillonnage des réponses. Les données expérimentales montrent qu'ASPIRE fonctionne bien sur divers ensembles de données, comble le manque d'étalonnage de confiance des grands modèles de langage et améliore la stabilité et la précision du modèle. Le lancement d'ASPIRE offrira de meilleures performances et des services plus fiables pour les grands modèles de langage dans différents domaines.
L'application réussie du cadre ASPIRE indique que les grands modèles de langage seront plus fiables et plus précis dans les applications pratiques, ouvrant ainsi de nouvelles orientations et possibilités pour le développement futur de la technologie de l'intelligence artificielle. Sa percée dans l’étalonnage de la confiance favorisera sans aucun doute l’application et la vulgarisation du LLM dans davantage de domaines.