MiniMax a publié abab6, le premier grand modèle linguistique du MoE de Chine, le 16 janvier 2024, marquant une nouvelle percée dans le domaine des grands modèles linguistiques dans mon pays. Le modèle abab6 adopte l'architecture MoE, a la capacité de gérer des tâches complexes et peut former plus de données par unité de temps, démontrant ainsi ses avantages significatifs en termes d'efficacité et de performances. Par rapport aux versions précédentes, abab6 s'est amélioré dans de nombreux aspects, tels que la conformité des commandes, les capacités complètes en chinois et en anglais, etc., et a même surpassé certains des principaux modèles linguistiques au monde.
MiniMax a publié abab6, le premier grand modèle de langage MoE de Chine, le 16 janvier 2024. Ce modèle adopte l'architecture MoE et a la capacité de gérer des tâches complexes et peut former plus de données par unité de temps. Les résultats de l'évaluation montrent qu'abab6 est supérieur à la version précédente abab5.5 en termes de conformité des commandes, de maîtrise complète du chinois et de maîtrise complète de l'anglais, et surpasse les autres grands modèles linguistiques tels que GPT-3.5. abab6 a démontré de grandes capacités, comme enseigner des problèmes de mathématiques aux enfants et aider à construire un jeu de société fictif sur Shanghai. En tant que premier grand modèle linguistique du MoE en Chine, abab6 fonctionne bien dans la gestion de tâches complexes.
La sortie d'abab6 améliore non seulement le niveau technique des grands modèles de langage nationaux, mais jette également des bases solides pour le développement généralisé d'applications d'intelligence artificielle à l'avenir. Ses excellentes performances dans le traitement de tâches complexes indiquent le grand potentiel de l’architecture MoE dans ce domaine. Je pense que d'autres excellents modèles basés sur l'architecture MoE apparaîtront à l'avenir, favorisant le progrès continu de la technologie de l'intelligence artificielle.