A startup francesa de IA Mistral lançou recentemente "Les Ministraux", uma série de modelos generativos de IA projetados para dispositivos de ponta, incluindo Ministral3B e Ministral8B, que são projetados para atender às necessidades de processamento local e prioridade de privacidade. O editor de Downcodes explicará em detalhes esta última conquista da Mistral e sua estratégia de desenvolvimento na área de IA.
A startup francesa de IA Mistral anunciou recentemente o lançamento de uma nova série de modelos generativos de IA projetados para dispositivos de ponta, como laptops e telefones celulares. A Mistral chamou esta série de modelos de "Les Ministraux" e visa atender primeiro às necessidades do mercado de processamento local e privacidade.
A recém-lançada série Les Ministraux inclui dois modelos: Ministral3B e Ministral8B. Vale ressaltar que a janela de contexto de ambos os modelos chega a 128.000 tokens e é capaz de lidar com o comprimento de texto de aproximadamente 50 páginas de um livro. Isso significa que, seja na geração de texto, na tradução no dispositivo ou no fornecimento de serviços de assistente inteligente off-line, esses modelos podem lidar com isso com facilidade.
Mistral disse em seu blog que cada vez mais clientes e parceiros estão procurando soluções que possam realizar inferências localmente, o que envolve cenários de aplicação importantes, como tradução no dispositivo, análise local e robôs autônomos. Les Ministraux foi desenvolvido para fornecer soluções computacionalmente eficientes e de baixa latência nesses cenários.
Atualmente, o Ministral8B está disponível para download, mas apenas para fins de pesquisa. Desenvolvedores e empresas que desejam obter uma licença para uso comercial do Ministral3B ou Ministral8B precisam entrar em contato diretamente com a Mistral. Ao mesmo tempo, os desenvolvedores também poderão usar esses dois modelos por meio da plataforma de nuvem La Platforme da Mistral, bem como de outros serviços de nuvem com os quais cooperará nas próximas semanas. O Ministral8B cobra 10 centavos por milhão de tokens de entrada/saída, enquanto o Ministral3B cobra 4 centavos.
Recentemente, tem havido uma tendência crescente para modelos menores porque são mais baratos e mais rápidos para treinar, ajustar e operar. O Google continua adicionando novos modelos à sua linha Gemma de modelos pequenos, enquanto a Microsoft lança sua linha de modelos Phi. A Meta também lançou vários modelos pequenos otimizados para hardware de ponta na última atualização da série Llama.
Mistral afirma que o Ministral3B e o Ministral8B superaram os modelos Llama e Gemma semelhantes, bem como seu próprio modelo Mistral7B, em vários benchmarks de IA projetados para avaliar o seguimento de instruções e as habilidades de resolução de problemas. Com sede em Paris, a Mistral arrecadou recentemente 640 milhões de dólares e está gradualmente a expandir o seu portfólio de produtos de IA. Nos últimos meses, a empresa lançou um serviço gratuito que permite aos desenvolvedores testar seus modelos e lançou um SDK para que os clientes possam ajustar esses modelos. Além disso, foi introduzido um modelo de geração de código denominado Codestral.
Os cofundadores da Mistral vêm da Meta e da DeepMind do Google, e o objetivo da empresa é criar modelos emblemáticos que possam competir com modelos de ponta, como GPT-4o da OpenAI e Claude da Anthropic, e se tornarem lucrativos no processo. Embora obter lucro seja uma meta desafiadora para muitas startups generativas de IA, a Mistral supostamente começou a gerar receita neste verão.
Destaque:
1. A série de modelos Les Ministraux lançada pela Mistral é projetada para dispositivos de ponta e suporta processamento de privacidade local.
2. O novo modelo inclui Minor3B e Ministral8B, que possuem fortes capacidades de processamento de contexto e são adequados para uma variedade de cenários de aplicação.
3. A Mistral tornou-se rentável e continua a expandir o seu portfólio de produtos de IA para competir com os principais modelos da indústria.
A série de modelos Les Ministraux da Mistral traz novas possibilidades para aplicações locais de IA com seu poderoso desempenho e otimização para dispositivos de ponta. No futuro, o desenvolvimento do Mistral merece atenção contínua, e vamos esperar para ver como ele cria mais avanços no campo da IA.