Mistral AI lanzó recientemente su modelo de lenguaje grande Mixtral 8x7B basado en el modelo SMoE, que tiene un rendimiento comparable al GPT-3.5 y se desempeña bien en tareas como matemáticas, generación de código y comprensión lectora. Este modelo tiene una velocidad de inferencia más rápida y ha sido de código abierto con la versión Instruct bajo la licencia Apache2.0. Este movimiento marca un gran paso adelante en el campo de los modelos de lenguajes grandes de código abierto y también presagia el ambicioso objetivo de Mistral AI de crear modelos de nivel GPT-4 de código abierto en 2024.
Mistral AI lanza Mixtral 8x7B, que se basa en el modelo SMoE y tiene un rendimiento comparable al GPT-3.5. El modelo se usa ampliamente en tareas como matemáticas, generación de código y comprensión lectora, y la velocidad de razonamiento es más rápida. Mixtral8x7B y Mixtral8x7B: Instruct son de código abierto bajo la licencia Apache2.0. Mistral AI planea abrir modelos de nivel GPT-4 de código abierto en 2024, liderando el campo de los modelos de lenguajes grandes de código abierto.El código abierto de Mixtral 8x7B reduce el umbral de entrada para modelos de lenguajes grandes, proporciona recursos valiosos para desarrolladores e investigadores y promueve la prosperidad del ecosistema de modelos grandes de código abierto. Vale la pena esperar su desarrollo posterior y el código abierto de GPT. -4 modelos de nivel.