Mistral AI最近發布了其基於SMoE模型的Mixtral 8x7B大語言模型,性能可與GPT-3.5媲美,並在數學、代碼生成和閱讀理解等任務中表現出色。此模型具有更快的推理速度,並已與Instruct版本一同開源,並採用Apache2.0授權。此舉標誌著開源大語言模型領域向前邁進了一大步,也預示著Mistral AI在2024年開源GPT-4層級模型的宏偉目標。
Mistral AI推出Mixtral 8x7B,基於SMoE模型,效能媲美GPT-3.5。模型廣泛應用於數學、程式碼產生、閱讀理解等任務,推理速度更快。 Mixtral8x7B和Mixtral8x7B – Instruct已開源,取得Apache2.0授權。 Mistral AI計畫於2024年開源GPT-4級模型,引領開源大語言模型領域。Mixtral 8x7B的開源,降低了大語言模型的准入門檻,為開發者和研究者提供了寶貴的資源,推動了開源大模型生態的繁榮發展,值得期待其後續發展以及GPT-4級別模型的開源。