Informes del editor de Downcodes: La startup francesa de inteligencia artificial Mistral AI lanzó recientemente una nueva generación de modelos de lenguaje, Ministral3B y Ministral8B, que forman parte de la serie "Ministraux" y están especialmente diseñados para dispositivos de borde y escenarios de computación de borde. Estos dos modelos admiten longitudes de contexto de hasta 128.000 tokens, tienen ventajas significativas en privacidad de datos y procesamiento local, y brindan un fuerte soporte para aplicaciones como traducción local, asistentes inteligentes fuera de línea, análisis de datos y robótica autónoma. Su rendimiento supera a muchos modelos similares en múltiples pruebas comparativas, lo que demuestra una fuerte competitividad.
Recientemente, la startup francesa de inteligencia artificial Mistral AI anunció sus modelos de lenguaje de nueva generación: Ministral3B y Ministral8B.
Los dos nuevos modelos forman parte de la serie "Ministraux", diseñada para dispositivos de vanguardia y escenarios de informática de vanguardia, y admite longitudes de contexto de hasta 128.000 tokens. Esto significa que estos modelos no sólo son potentes sino que también pueden usarse en situaciones donde la privacidad de los datos y el procesamiento local son particularmente importantes.
Mistral dijo que la gama de modelos Ministraux es ideal para una variedad de aplicaciones como traducción local, asistentes inteligentes fuera de línea, análisis de datos y robótica autónoma. Para mejorar aún más la eficiencia, los modelos Ministraux también se pueden combinar con modelos de lenguaje más grandes (como Mistral Large) para servir como intermediarios eficaces en flujos de trabajo de varios pasos.
En términos de rendimiento, los puntos de referencia proporcionados por Mistral muestran que Ministral3B y 8B superan a muchos modelos similares en múltiples categorías, como el Gemma22B de Song y el Llama3.18B de Meta. Cabe mencionar que a pesar de tener un menor número de parámetros, Minitral3B superó a su predecesor, Mistral7B, en algunas pruebas.
De hecho, Mistral8B tuvo un buen desempeño en todas las pruebas, especialmente en áreas como conocimiento, conocimiento general, llamada de funciones y capacidades multilingües.
En cuanto a precios, estos dos nuevos modelos de Ministry AI ya están disponibles vía API. La tarifa de Ministral8B es de 0,10 dólares por millón de tokens, mientras que la de Ministral3B es de 0,04 dólares. Además, Mistral proporciona pesos modelo para Ministral8B Instruct con fines de investigación. Vale la pena señalar que estos dos nuevos modelos de Mistral también se lanzarán próximamente a través de socios en la nube como Google Vertex y AWS.
Destacar:
- Mistral AI lanza Minitral3B y 8B, que admiten longitudes de contexto de hasta 128.000 tokens.
- Estos dos modelos son adecuados para aplicaciones como traducción local, asistentes fuera de línea, análisis de datos y robots autónomos.
- En términos de precios, la tarifa por millón de tokens para Ministral8B es de 0,10 dólares estadounidenses y la de Ministral3B es de 0,04 dólares estadounidenses.
Con todo, Minitral3B y 8B de Mistral AI aportan nuevas posibilidades al campo de la inteligencia artificial con su potente rendimiento, contexto de larga duración y escenarios de aplicación flexibles. Se cree que estos dos modelos desempeñarán un papel importante en las aplicaciones de localización y computación de vanguardia. El editor de Downcodes seguirá atento a su desarrollo posterior.