Rapports de l'éditeur de downcodes : La startup française d'intelligence artificielle Mistral AI a récemment publié une nouvelle génération de modèles de langage, Ministral3B et Ministral8B, qui font partie de la série "Ministraux" et sont spécialement conçus pour les appareils de pointe et les scénarios d'informatique de pointe. Ces deux modèles prennent en charge des longueurs de contexte allant jusqu'à 128 000 jetons, présentent des avantages significatifs en matière de confidentialité des données et de traitement local, et offrent une solide prise en charge d'applications telles que la traduction locale, les assistants intelligents hors ligne, l'analyse de données et la robotique autonome. Ses performances surpassent de nombreux modèles similaires lors de multiples tests de référence, démontrant une forte compétitivité.
Récemment, la startup française d'intelligence artificielle Mistral AI a annoncé ses modèles de langage de nouvelle génération : Ministral3B et Ministral8B.
Les deux nouveaux modèles font partie de la série « Ministraux », conçue pour les appareils Edge et les scénarios Edge Computing, prenant en charge des longueurs de contexte allant jusqu'à 128 000 jetons. Cela signifie que ces modèles sont non seulement puissants, mais peuvent être utilisés dans des situations où la confidentialité des données et le traitement local sont particulièrement importants.
Mistral a déclaré que la gamme de modèles Ministraux est parfaitement adaptée à une gamme d'applications telles que la traduction locale, les assistants intelligents hors ligne, l'analyse de données et la robotique autonome. Pour améliorer encore l'efficacité, les modèles Ministraux peuvent également être combinés avec des modèles de langage plus grands (tels que Mistral Large) pour servir d'intermédiaires efficaces dans les flux de travail en plusieurs étapes.
En termes de performances, les benchmarks fournis par Mistral montrent que les Ministral3B et 8B surpassent de nombreux modèles similaires dans plusieurs catégories, tels que le Gemma22B de Song et le Llama3.18B de Meta. Il convient de mentionner que malgré un plus petit nombre de paramètres, Minitral3B a surpassé son prédécesseur, Mistral7B, dans certains tests.
En fait, Mistral8B a obtenu de bons résultats dans tous les tests, en particulier dans des domaines tels que les connaissances, les connaissances générales, les appels de fonctions et les capacités multilingues.
Concernant les tarifs, ces deux nouveaux modèles de Ministry AI sont déjà disponibles via API. Les frais de Ministral8B sont de 0,10 $ par million de jetons, tandis que ceux de Ministral3B sont de 0,04 $. De plus, Mistral fournit des poids modèles pour l'instruction Ministral8B à des fins de recherche. A noter que ces deux nouveaux modèles de Mistral seront également lancés prochainement via des partenaires cloud tels que Google Vertex et AWS.
Souligner:
- Mistral AI lance Minitral3B et 8B, prenant en charge des longueurs de contexte allant jusqu'à 128 000 jetons.
- Ces deux modèles conviennent à des applications telles que la traduction locale, les assistants hors ligne, l'analyse de données et les robots autonomes.
- En termes de tarification, les frais par million de jetons pour Ministral8B sont de 0,10 USD et ceux de Ministral3B sont de 0,04 USD.
Dans l'ensemble, les Minitral3B et 8B de Mistral AI apportent de nouvelles possibilités dans le domaine de l'intelligence artificielle grâce à leurs performances puissantes, leur longue longueur de contexte et leurs scénarios d'application flexibles. On pense que ces deux modèles joueront un rôle important dans les applications d’informatique de pointe et de localisation. L'éditeur de Downcodes continuera à prêter attention à son évolution ultérieure.