Mistral AI近日发布了其基于SMoE模型的Mixtral 8x7B大语言模型,性能可与GPT-3.5媲美,并在数学、代码生成和阅读理解等任务中表现出色。该模型具有更快的推理速度,并已与Instruct版本一同开源,采用Apache2.0许可证。此举标志着开源大语言模型领域向前迈进了一大步,也预示着Mistral AI在2024年开源GPT-4级别模型的宏伟目标。
Mistral AI推出Mixtral 8x7B,基于SMoE模型,性能媲美GPT-3.5。模型广泛应用于数学、代码生成、阅读理解等任务,推理速度更快。Mixtral8x7B和Mixtral8x7B – Instruct已开源,获得Apache2.0许可证。Mistral AI计划于2024年开源GPT-4级别模型,引领开源大语言模型领域。Mixtral 8x7B的开源,降低了大语言模型的准入门槛,为开发者和研究者提供了宝贵的资源,推动了开源大模型生态的繁荣发展,值得期待其后续发展以及GPT-4级别模型的开源。