Mistral AI a récemment publié son grand modèle de langage Mixtral 8x7B basé sur le modèle SMoE, qui offre des performances comparables à GPT-3.5 et fonctionne bien dans des tâches telles que les mathématiques, la génération de code et la compréhension écrite. Ce modèle a une vitesse d'inférence plus rapide et a été open source avec la version Instruct sous la licence Apache2.0. Cette décision marque un grand pas en avant dans le domaine des grands modèles de langage open source et annonce également l’objectif ambitieux de Mistral AI de modèles open source de niveau GPT-4 en 2024.
Mistral AI lance Mixtral 8x7B, basé sur le modèle SMoE et offrant des performances comparables à GPT-3.5. Le modèle est largement utilisé dans des tâches telles que les mathématiques, la génération de code et la compréhension écrite, et la vitesse de raisonnement est plus rapide. Mixtral8x7B et Mixtral8x7B – Instruct sont open source sous la licence Apache2.0. Mistral AI prévoit d'ouvrir des modèles open source de niveau GPT-4 en 2024, leader dans le domaine des grands modèles de langage open source.L'open source de Mixtral 8x7B abaisse le seuil d'entrée pour les grands modèles de langage, fournit des ressources précieuses aux développeurs et aux chercheurs et favorise la prospérité de l'écosystème des grands modèles open source. Il vaut la peine d'attendre avec impatience son développement ultérieur et l'open source de GPT. -Modèles à 4 niveaux.