Les derniers résultats de recherche des équipes Meta et NYU sont accrocheurs. Ils ont proposé une méthode innovante pour rendre les grands modèles « auto-récompensés » et l'ont appliquée avec succès au modèle Llama2. Cette avancée technologique a permis à Llama2 de surpasser les principaux modèles tels que GPT-40613, Claude2 et Gemini Pro dans de multiples tests de référence, devenant ainsi le centre d'intérêt du domaine actuel de l'IA. Cette réalisation marque un progrès significatif dans la technologie des grands modèles d’auto-itération de l’IA et annonce une nouvelle direction pour le développement futur de l’IA.
Récemment, les équipes Meta et NYU ont proposé une méthode permettant aux grands mannequins de « se récompenser ». Grâce à cette méthode, Llama2 a vaincu les principaux modèles GPT-40613, Claude2 et GeminiPro d'un seul coup, devenant ainsi le centre d'intérêt du monde de l'IA. La recherche montre que ce travail de Meta constitue un grand pas en avant dans l’avancée des frontières des grands modèles d’auto-itération de l’IA.
Ce résultat de recherche des équipes Meta et NYU fournit de nouvelles idées et méthodes pour l'auto-itération de grands modèles d'IA. À l'avenir, il devrait améliorer encore les performances et l'efficacité des modèles d'IA et promouvoir le développement durable de la technologie de l'intelligence artificielle. . Le succès de Llama2 a également fourni une expérience et une référence précieuses pour d’autres équipes de recherche en IA. Je pense que dans un avenir proche, nous verrons l’émergence de modèles d’IA plus avancés basés sur des mécanismes d’auto-récompense.