En los últimos años, el coste de los grandes modelos lingüísticos (LLM) ha sido un factor importante que ha dificultado su aplicación generalizada. Recientemente, Mistral y Microsoft han liderado la tendencia de los "modelos de lenguaje pequeño", lo que ha traído nuevas esperanzas de reducir el costo de las aplicaciones de IA y ampliar el alcance de la aplicación de la tecnología de IA generativa. El modelo Mistral-medium incluso supera al GPT-4 en términos de capacidades de código y el costo se reduce en dos tercios, lo que sin duda es un progreso histórico. El lanzamiento del modelo Mixtral8x7B y del modelo pequeño Phi-2 ha impulsado aún más esta tendencia.
Mistral y Microsoft están liderando la tendencia del "modelo de lenguaje pequeño". Las capacidades de código de Mistral-medium superan a GPT-4 y su costo se reduce en 2/3. El lanzamiento del modelo Mixtral8x7B y el modelo pequeño Phi-2 ha hecho que la tendencia de los modelos pequeños sea cada vez más popular, reduciendo el costo de las aplicaciones de IA a gran escala y ampliando el alcance de la aplicación de la tecnología de IA generativa. Los resultados de las pruebas internas de Mistral-medium muestran que la calidad y el costo de generación de código son mejores que los de GPT-4, lo que brinda a los desarrolladores una opción más eficiente.El auge de los modelos de lenguajes pequeños proporciona soluciones más económicas y eficientes para la popularización y aplicación de la tecnología de IA, y también presagia una nueva dirección para el desarrollo futuro de la IA. El caso exitoso de Mistral-medium sin duda alentará a más empresas e instituciones de investigación a invertir en la investigación, el desarrollo y la aplicación de modelos pequeños, promoviendo así la tecnología de inteligencia artificial para beneficiar a la sociedad humana más rápido y mejor. En el futuro, tenemos motivos para esperar la aparición de más y mejores modelos de lenguaje pequeño, que tendrán un impacto transformador en todos los ámbitos de la vida.