MiniMax lançou o abab6, o primeiro modelo de linguagem grande do MoE da China, em 16 de janeiro de 2024, marcando um novo avanço no campo de modelos de linguagem grande em meu país. O modelo abab6 adota a arquitetura MoE, tem a capacidade de lidar com tarefas complexas e pode treinar mais dados por unidade de tempo, demonstrando suas vantagens significativas em eficiência e desempenho. Em comparação com as versões anteriores, o abab6 melhorou em muitos aspectos, como conformidade de comando, capacidades abrangentes de chinês e inglês, etc., e até superou alguns dos principais modelos de idiomas grandes do mundo.
MiniMax lançou abab6, o primeiro modelo de linguagem grande MoE da China, em 16 de janeiro de 2024. Este modelo adota a arquitetura MoE e tem a capacidade de lidar com tarefas complexas e pode treinar mais dados por unidade de tempo. Os resultados da avaliação mostram que o abab6 é superior à versão anterior do abab5.5 em conformidade com comandos, habilidade abrangente em chinês e habilidade abrangente em inglês, e supera outros grandes modelos de linguagem, como o GPT-3.5. abab6 demonstrou grandes habilidades, como ensinar problemas de matemática para crianças e ajudar a construir um jogo de tabuleiro fictício sobre Xangai. Como o primeiro modelo de grande linguagem do MoE na China, o abab6 tem um bom desempenho no tratamento de tarefas complexas.
O lançamento do abab6 não apenas melhora o nível técnico dos grandes modelos domésticos de linguagem, mas também estabelece uma base sólida para o desenvolvimento generalizado de aplicações de inteligência artificial no futuro. Seu excelente desempenho no processamento de tarefas complexas indica o grande potencial da arquitetura MoE neste campo. Acredito que no futuro surgirão mais modelos excelentes baseados na arquitetura do MoE, promovendo o progresso contínuo da tecnologia de inteligência artificial.