Ces dernières années, le coût des grands modèles de langage (LLM) a été un facteur majeur entravant leur application généralisée. Récemment, Mistral et Microsoft ont mené la tendance des « petits modèles de langage », ce qui a apporté un nouvel espoir de réduire le coût des applications d'IA et d'élargir le champ d'application de la technologie d'IA générative. Le modèle Mistral-moyen surpasse même le GPT-4 en termes de capacités de code, et le coût est réduit des deux tiers, ce qui constitue sans aucun doute un progrès marquant. La sortie du modèle Mixtral8x7B et du petit modèle Phi-2 a encore favorisé cette tendance.
Mistral et Microsoft sont à la pointe de la tendance du « petit modèle de langage ». Les capacités de code de Mistral-medium dépassent GPT-4 et son coût est réduit de 2/3. La sortie du modèle Mixtral8x7B et du petit modèle Phi-2 a rendu la tendance des petits modèles de plus en plus populaire, réduisant le coût des applications d'IA à grande échelle et élargissant le champ d'application de la technologie d'IA générative. Les résultats des tests internes de Mistral-medium montrent que la qualité et le coût de sa génération de code sont meilleurs que GPT-4, offrant ainsi aux développeurs un choix plus efficace.L’essor des petits modèles linguistiques offre des solutions plus économiques et efficaces pour la vulgarisation et l’application de la technologie de l’IA, et annonce également une nouvelle direction pour le développement futur de l’IA. Le cas réussi de Mistral-medium encouragera sans aucun doute davantage d’entreprises et d’institutions de recherche à investir dans la recherche, le développement et l’application de petits modèles, promouvant ainsi la technologie de l’intelligence artificielle au bénéfice de la société humaine plus rapidement et mieux. À l’avenir, nous avons des raisons d’espérer l’émergence de petits modèles linguistiques plus nombreux et plus performants, qui auront un impact transformateur sur tous les horizons.