Mistral AI lançou recentemente seu modelo de linguagem grande Mixtral 8x7B baseado no modelo SMoE, que tem desempenho comparável ao GPT-3.5 e funciona bem em tarefas como matemática, geração de código e compreensão de leitura. Este modelo tem velocidade de inferência mais rápida e foi de código aberto com a versão Instruct sob a licença Apache2.0. Este movimento marca um grande avanço no campo de modelos de linguagem de código aberto de grande porte e também anuncia a meta ambiciosa da Mistral AI de modelos de nível GPT-4 de código aberto em 2024.
Mistral AI lança Mixtral 8x7B, que é baseado no modelo SMoE e tem desempenho comparável ao GPT-3.5. O modelo é amplamente utilizado em tarefas como matemática, geração de código e compreensão de leitura, e a velocidade de raciocínio é mais rápida. Mixtral8x7B e Mixtral8x7B – Instruct são de código aberto sob a licença Apache2.0. Mistral AI planeja abrir modelos de nível GPT-4 de código aberto em 2024, liderando o campo de modelos de linguagem grande de código aberto.O código aberto do Mixtral 8x7B reduz o limite de entrada para grandes modelos de linguagem, fornece recursos valiosos para desenvolvedores e pesquisadores e promove a prosperidade do ecossistema de grandes modelos de código aberto. Vale a pena aguardar seu desenvolvimento subsequente e o código aberto do GPT. -4 modelos de nível.