最近、清華大学がリリースした国産大型モデル「Mistral」がGitHub上で熱狂的な反響を呼んでおり、その2Bサイズは多くの「大型」モデルを上回る性能を持っています。これは、その強力なパフォーマンスだけでなく、非常に低コストの利点にも反映されています。1,700,000 トークンの推論コストはわずか 1 元で取得でき、これは同様の製品よりもはるかに低いです。さらに、Mistral はマルチモーダル機能も備えており、強力なアプリケーションの可能性を示しています。この事件は、AI の分野では優れたモデル設計とコスト管理が同様に重要であり、単に「量が重要」ではないことを改めて証明しました。
この記事では次の点に焦点を当てています。
最近、清華大学学部が国産の Mistral をリリースしました。このサイズはわずか 2B ですが、予想外に GitHub で熱烈な歓迎を受け、1 日で 300 以上のスターを獲得しました。パフォーマンスの点では、この製品はパフォーマンスとサイズの間に大きなコントラストがあり、多くの実績において主流の「大容量」大型モデルを上回っています。コスト面ではさらに驚くべきことに、推論コストで 1,700,000 トークンを取得するのにかかるコストはわずか 1 元です。上記の特徴に加えて、この製品はマルチモーダルな機能も備えており、優れた効果を発揮します。
ミストラルの成功は、国産大型モデルの性能とコストの画期的な進歩を示すとともに、将来の大型モデルの開発方向に新たなアイデアを与えるものでもある。今後も同様のサプライズが次々と登場し、AI技術のさらなる進歩が進むと思います。