Relatórios do editor de downcodes: A startup francesa de inteligência artificial Mistral AI lançou recentemente uma nova geração de modelos de linguagem, Ministral3B e Ministral8B, que fazem parte da série "Ministraux" e são especialmente projetados para dispositivos de ponta e cenários de computação de ponta. Esses dois modelos suportam comprimentos de contexto de até 128.000 tokens, têm vantagens significativas em privacidade de dados e processamento local e fornecem forte suporte para aplicações como tradução local, assistentes inteligentes offline, análise de dados e robótica autônoma. Seu desempenho supera muitos modelos similares em múltiplos testes de benchmark, demonstrando forte competitividade.
Recentemente, a startup francesa de inteligência artificial Mistral AI anunciou seus modelos de linguagem de nova geração – Ministral3B e Ministral8B.
Os dois novos modelos fazem parte da série “Ministraux”, projetada para dispositivos de ponta e cenários de computação de ponta, suportando comprimentos de contexto de até 128.000 tokens. Isto significa que estes modelos não são apenas poderosos, mas também podem ser utilizados em situações em que a privacidade dos dados e o processamento local são particularmente importantes.
Mistral disse que a linha de modelos Ministraux é ideal para uma variedade de aplicações, como tradução local, assistentes inteligentes offline, análise de dados e robótica autônoma. Para melhorar ainda mais a eficiência, os modelos Ministraux também podem ser combinados com modelos de linguagem maiores (como Mistral Large) para servirem como intermediários eficazes em fluxos de trabalho de várias etapas.
Em termos de desempenho, os benchmarks fornecidos pela Mistral mostram que o Ministral3B e o 8B superam muitos modelos semelhantes em múltiplas categorias, como o Gemma22B da Song e o Llama3.18B da Meta. Vale ressaltar que apesar de possuir um número menor de parâmetros, o Minitral3B superou seu antecessor, o Mistral7B, em alguns testes.
Na verdade, o Mistral8B teve um bom desempenho em todos os testes, especialmente em áreas como conhecimento, conhecimentos gerais, chamada de funções e capacidades multilíngues.
Em relação ao preço, estes dois novos modelos do Ministry AI já estão disponíveis via API. A taxa do Ministral8B é de US$ 0,10 por milhão de tokens, enquanto a do Ministral3B é de US$ 0,04. Além disso, a Mistral fornece pesos de modelo para o Ministral8B Instruct para fins de pesquisa. Vale ressaltar que esses dois novos modelos do Mistral também serão lançados em breve por meio de parceiros de nuvem como Google Vertex e AWS.
Destaque:
- Mistral AI lança Minitral3B e 8B, suportando comprimentos de contexto de até 128.000 tokens.
- Estes dois modelos são adequados para aplicações como tradução local, assistentes offline, análise de dados e robôs autônomos.
- Em termos de preço, a taxa por milhão de tokens do Ministral8B é de US$ 0,10 e a do Ministral3B é de US$ 0,04.
Resumindo, o Minitral3B e 8B da Mistral AI trazem novas possibilidades para o campo da inteligência artificial com seu desempenho poderoso, longo comprimento de contexto e cenários de aplicação flexíveis. Acredita-se que esses dois modelos desempenharão um papel importante na computação de ponta e nas aplicações de localização. O editor do Downcodes continuará atento ao seu desenvolvimento posterior.