Codestral 25.01, le dernier modèle de codage open source publié par Mistral, a réalisé des améliorations significatives en termes de performances et est deux fois plus rapide que la génération précédente. En tant que version améliorée de Codestral, Codestral 25.01 hérite de ses caractéristiques de fonctionnement à faible latence et à haute fréquence et est optimisé pour les applications de niveau entreprise, prenant en charge des tâches telles que la correction de code, la génération de tests et le remplissage intermédiaire. Ses excellentes performances au test de codage Python, en particulier le score élevé de 86,6 % au test HumanEval, en font le leader parmi les modèles de codage lourds actuels, surpassant de nombreux produits similaires.
Semblable au Codestral original, Codestral 25.01 se concentre toujours sur les opérations à faible latence et à haute fréquence, prenant en charge la correction de code, la génération de tests et les tâches de remplissage intermédiaires. Mistral a déclaré que cette version est particulièrement adaptée aux entreprises qui ont besoin de plus de données et de modèles de résidence. Les tests de référence montrent que Codestral25.01 fonctionne au-delà des attentes dans le test de codage Python, avec un score au test HumanEval de 86,6 %, dépassant de loin la version précédente, Codellama70B Instruct et DeepSeek Coder33B Instruct.
Les développeurs peuvent accéder au modèle via le plug-in Mistral IDE ainsi que l'outil de déploiement local Continue. De plus, Mistral donne également accès à l'API via Google Vertex AI et Mistral la Plateforme. Le modèle est actuellement disponible en préversion sur Azure AI Foundry et le sera bientôt sur la plateforme Amazon Bedrock.
Depuis sa sortie l'année dernière, Codestral by Mistral est devenu un leader dans le modèle open source axé sur le code. Sa première version de Codestral est un modèle de paramètres 22B qui prend en charge jusqu'à 80 langues et offre de meilleures performances de codage que de nombreux produits similaires. Immédiatement après, Mistral a lancé Codestral-Mamba, un modèle de génération de code basé sur l'architecture Mamba, capable de gérer des chaînes de code plus longues et de répondre à davantage d'exigences de saisie.
Le lancement de Codestral 25.01 a attiré l'attention des développeurs, se classant en tête du classement C o pilot Arena quelques heures seulement après sa sortie. Cette tendance montre que les modèles de codage spécialisés deviennent rapidement le premier choix des développeurs, en particulier dans le domaine des tâches de codage. Par rapport aux modèles généraux multifonctionnels, le besoin de modèles de codage ciblés est de plus en plus évident.
Bien que les modèles à usage général comme o3 d’OpenAI et Claude d’Anthropic puissent également encoder, les modèles d’encodage spécialement optimisés ont tendance à mieux fonctionner. Au cours de la dernière année, plusieurs sociétés ont lancé des modèles dédiés au codage, tels que le Qwen2.5-Coder d'Alibaba et le DeepSeek Coder de Chine, ce dernier devenant le premier modèle à surpasser GPT-4Turbo. En outre, Microsoft a également lancé GRIN-MoE basé sur le modèle mixte d'experts (MOE), qui peut non seulement coder mais également résoudre des problèmes mathématiques.
Bien que les développeurs se demandent encore s’il convient de choisir des modèles à usage général ou des modèles spécialisés, l’essor rapide des modèles de codage a révélé un énorme besoin d’outils de codage efficaces et précis. Avec l’avantage d’être spécialement formé aux tâches de codage, Codestral25.01 occupe sans aucun doute une place dans le futur du codage.
La sortie de Codestral25.01 marque une nouvelle étape dans le domaine des modèles de codage professionnels. Ses performances supérieures et son accès pratique apporteront aux développeurs une expérience de codage plus efficace et favoriseront le développement ultérieur de l'intelligence artificielle dans le domaine du développement de logiciels. À l’avenir, nous espérons voir émerger davantage de modèles professionnels similaires pour offrir plus de choix aux développeurs.