MiniMax merilis abab6, model bahasa besar MoE pertama di Tiongkok, pada 16 Januari 2024, menandai terobosan baru dalam bidang model bahasa besar di negara saya. Model abab6 mengadopsi arsitektur MoE, memiliki kemampuan untuk menangani tugas-tugas kompleks, dan dapat melatih lebih banyak data per satuan waktu, menunjukkan keunggulan signifikan dalam efisiensi dan kinerja. Dibandingkan dengan versi sebelumnya, abab6 telah mengalami peningkatan dalam banyak aspek, seperti kepatuhan perintah, kemampuan bahasa Mandarin dan Inggris yang komprehensif, dll., dan bahkan melampaui beberapa model bahasa besar terkemuka di dunia.
MiniMax merilis abab6, model bahasa besar MoE pertama di Tiongkok, pada 16 Januari 2024. Model ini mengadopsi arsitektur MoE dan memiliki kemampuan untuk menangani tugas-tugas kompleks serta dapat melatih lebih banyak data per satuan waktu. Hasil evaluasi menunjukkan bahwa abab6 lebih unggul dari versi sebelumnya abab5.5 dalam hal kepatuhan perintah, kemampuan bahasa Mandarin komprehensif, dan kemampuan bahasa Inggris komprehensif, serta melampaui model bahasa besar lainnya seperti GPT-3.5. abab6 telah menunjukkan kemampuan luar biasa, seperti mengajarkan soal matematika kepada anak-anak dan membantu membuat permainan papan fiksi tentang Shanghai. Sebagai model bahasa besar MoE pertama di Tiongkok, abab6 berkinerja baik dalam menangani tugas-tugas kompleks.
Peluncuran abab6 tidak hanya meningkatkan tingkat teknis model bahasa besar dalam negeri, namun juga meletakkan dasar yang kokoh bagi pengembangan luas aplikasi kecerdasan buatan di masa depan. Kinerjanya yang luar biasa dalam pemrosesan tugas yang kompleks menunjukkan potensi besar arsitektur Kementerian Lingkungan Hidup di bidang ini. Saya percaya bahwa model-model yang lebih unggul berdasarkan arsitektur MoE akan muncul di masa depan, mendorong kemajuan berkelanjutan dalam teknologi kecerdasan buatan.