L'équipe d'algorithmes de recherche de Xiaohongshu a publié une recherche révolutionnaire lors de la conférence AAAI2024, visant à résoudre les problèmes des attributs de boîte noire et des énormes quantités de paramètres des grands modèles de langage dans les tâches de raisonnement. L’équipe a proposé de manière innovante un nouveau cadre qui améliore efficacement les capacités de raisonnement des grands modèles de langage en utilisant intelligemment des échantillons de connaissances négatives. Ce cadre comprend deux étapes clés : la formation assistée négative (NAT) et l'amélioration de l'étalonnage négatif (NCE), qui ont considérablement amélioré les performances des applications de grands modèles de langage et ont fourni de nouvelles orientations et idées de recherche à l'industrie. .
L’article se concentre sur :
L'équipe d'algorithmes de recherche de Xiaohongshu a lancé un cadre innovant à l'AAAI2024 visant à résoudre les problèmes des attributs de boîte noire et des énormes quantités de paramètres des grands modèles de langage dans les tâches d'inférence. Ce cadre se concentre sur l'utilisation d'échantillons de connaissances négatifs pour améliorer les capacités de raisonnement des grands modèles de langage et propose des étapes de sérialisation telles que la formation assistée négative (NAT) et l'amélioration de l'étalonnage négatif (NCE), qui fournissent de nouvelles idées pour les performances des applications des grands modèles de langage. .Cette recherche de l'équipe de Xiaohongshu fournit une nouvelle direction pour résoudre le problème de l'inférence de grands modèles de langage. La stratégie d'utilisation des connaissances des échantillons négatifs et les méthodes NAT et NCE qu'elle propose méritent une étude et une application plus approfondies. Cela marque un progrès important dans l’amélioration des capacités de raisonnement des grands modèles de langage et devrait promouvoir l’application de grands modèles de langage dans des tâches plus complexes à l’avenir.