Mistral AI は最近、SMoE モデルに基づく Mixtral 8x7B 大規模言語モデルをリリースしました。これは GPT-3.5 に匹敵するパフォーマンスを備え、数学、コード生成、読解などのタスクで優れたパフォーマンスを発揮します。このモデルは推論速度が速く、Apache2.0 ライセンスの下で Instruct バージョンでオープンソース化されています。この動きは、オープンソースの大規模言語モデルの分野における大きな前進を示すものであり、2024 年にオープンソースの GPT-4 レベル モデルを開発するという Mistral AI の野心的な目標を予告するものでもあります。
Mistral AI は、SMoE モデルに基づいており、GPT-3.5 に匹敵するパフォーマンスを備えた Mixtral 8x7B を発売します。このモデルは数学、コード生成、読解などのタスクに広く使用されており、推論速度が速くなります。 Mixtral8x7B および Mixtral8x7B – Instruct は、Apache2.0 ライセンスに基づいてオープンソース化されています。 Mistral AI は、2024 年に GPT-4 レベルのモデルをオープンソースにする予定で、オープンソースの大規模言語モデルの分野をリードします。Mixtral 8x7B のオープンソースは、大規模言語モデルへの参入の敷居を下げ、開発者や研究者に貴重なリソースを提供し、オープンソースの大規模モデル エコシステムの繁栄を促進します。その後の開発と GPT のオープンソースに期待する価値があります。 -4レベルモデル。