16 января 2024 года MiniMax выпустила abab6, первую в Китае большую языковую модель MoE, что ознаменовало новый прорыв в области больших языковых моделей в моей стране. Модель abab6 использует архитектуру MoE, способна решать сложные задачи и может обрабатывать больше данных в единицу времени, демонстрируя свои значительные преимущества в эффективности и производительности. По сравнению с предыдущими версиями, abab6 улучшился во многих аспектах, таких как соответствие командам, широкие возможности китайского и английского языков и т. д., и даже превзошел некоторые ведущие мировые модели больших языков.
16 января 2024 года MiniMax выпустила abab6, первую в Китае модель большого языка MoE. Эта модель использует архитектуру MoE, способна решать сложные задачи и обучать больше данных в единицу времени. Результаты оценки показывают, что abab6 превосходит предыдущую версию abab5.5 по соблюдению команд, полному владению китайским и английским языком, а также превосходит другие крупные языковые модели, такие как GPT-3.5. abab6 продемонстрировал выдающиеся способности, например, обучая детей математическим задачам и помогая создать вымышленную настольную игру о Шанхае. Будучи первой крупной языковой моделью MoE в Китае, abab6 хорошо справляется со сложными задачами.
Выпуск abab6 не только повышает технический уровень отечественных больших языковых моделей, но и закладывает прочную основу для широкого развития приложений искусственного интеллекта в будущем. Его превосходная производительность при обработке сложных задач указывает на большой потенциал архитектуры MoE в этой области. Я считаю, что в будущем появятся более совершенные модели на основе архитектуры MoE, способствующие постоянному прогрессу технологий искусственного интеллекта.