MiniMax は、2024 年 1 月 16 日に中国初の MoE 大規模言語モデルである abab6 をリリースし、我が国の大規模言語モデルの分野で新たな進歩を遂げました。 abab6 モデルは MoE アーキテクチャを採用しており、複雑なタスクを処理する能力があり、単位時間あたりにより多くのデータをトレーニングできるため、効率とパフォーマンスにおいて大きな利点が実証されています。以前のバージョンと比較して、abab6 はコマンドのコンプライアンス、包括的な中国語と英語の機能など、多くの側面で向上しており、世界をリードする大規模な言語モデルのいくつかをも上回っています。
MiniMax は、2024 年 1 月 16 日に中国初の MoE 大規模言語モデルである abab6 をリリースしました。このモデルは MoE アーキテクチャを採用しており、複雑なタスクを処理する能力があり、単位時間あたりにより多くのデータをトレーニングできます。評価の結果、abab6はコマンド準拠性、総合的な中国語能力、総合的な英語能力において前バージョンのabab5.5よりも優れており、GPT-3.5などの他の大型言語モデルを上回っていることがわかりました。 abab6 は、子供たちに数学の問題を教えたり、上海に関する架空のボード ゲームの作成を手伝ったりするなど、優れた能力を発揮しています。中国初の MoE の大規模言語モデルである abab6 は、複雑なタスクの処理において優れたパフォーマンスを発揮します。
abab6 のリリースは、国内の大規模言語モデルの技術レベルを向上させるだけでなく、将来の人工知能アプリケーションの広範な開発のための強固な基盤を築きます。 複雑なタスク処理におけるその優れたパフォーマンスは、この分野における MoE アーキテクチャの大きな可能性を示しています。 今後、MoEアーキテクチャに基づいた優れたモデルがさらに登場し、人工知能技術の継続的な進歩が促進されると信じています。