Nos últimos anos, o custo dos grandes modelos de linguagem (LLMs) tem sido um fator importante que dificulta a sua aplicação generalizada. Recentemente, Mistral e Microsoft lideraram a tendência de "modelos de linguagem pequena", o que trouxe uma nova esperança para reduzir o custo das aplicações de IA e expandir o escopo de aplicação da tecnologia de IA generativa. O modelo Mistral-médio supera até mesmo o GPT-4 em termos de capacidades de código, e o custo é reduzido em dois terços, o que é sem dúvida um marco no progresso. O lançamento do modelo Mixtral8x7B e do modelo pequeno Phi-2 promoveu ainda mais esta tendência.
Mistral e Microsoft estão liderando a tendência do "modelo de linguagem pequena". As capacidades de código do Mistral-medium ultrapassam o GPT-4 e seu custo é reduzido em 2/3. O lançamento do modelo Mixtral8x7B e do modelo pequeno Phi-2 tornou a tendência de modelos pequenos cada vez mais popular, reduzindo o custo de aplicações de IA em grande escala e ampliando o escopo de aplicação da tecnologia de IA generativa. Os resultados dos testes internos do Mistral-medium mostram que a qualidade e o custo de geração de código são melhores do que o GPT-4, proporcionando aos desenvolvedores uma escolha mais eficiente.A ascensão de modelos de pequenas línguas proporciona soluções mais económicas e eficientes para a popularização e aplicação da tecnologia de IA, e também anuncia uma nova direcção para o desenvolvimento futuro da IA. O caso de sucesso do Mistral-medium irá, sem dúvida, encorajar mais empresas e instituições de investigação a investir na investigação e desenvolvimento e na aplicação de pequenos modelos, promovendo assim a tecnologia de inteligência artificial para beneficiar a sociedade humana de forma mais rápida e melhor. No futuro, temos motivos para esperar o surgimento de mais e melhores modelos de pequenas línguas, que terão um impacto transformador em todas as esferas da vida.