Recentemente, a comunidade de IA gerou discussões acaloradas devido ao vazamento do novo modelo “miqu”. Diz-se que o desempenho deste modelo está próximo do GPT-4, que já desencadeou uma discussão crítica no campo da IA de código aberto. No entanto, a investigação revelou que “miqu” não era um modelo totalmente novo, mas um modelo de prova de conceito quantificado e mais antigo da Mistral. Este incidente destacou as áreas que ainda precisam de ser melhoradas no desenvolvimento e na segurança de modelos linguísticos de grande escala, e também desencadeou novas reflexões sobre o risco de fuga de modelos e gestão de comunidades de código aberto.
Houve uma discussão acalorada na comunidade de IA sobre o vazamento do novo modelo “miqu”, que foi finalmente confirmado como uma versão quantificada do antigo modelo do Mistral. O desempenho do modelo está próximo do GPT-4, o que tem despertado discussões acaloradas entre os desenvolvedores. A IA de código aberto pode inaugurar um momento crítico. Após testes e comparação, foi confirmado que o miqu pode ser uma versão vazada do modelo Mistral, um modelo de prova de conceito mais antigo. O CEO da Mistral revelou que se tratava de um modelo antigo que foi vazado por funcionários que estavam excessivamente entusiasmados e não pediram para que a postagem no HuggingFace fosse excluída. As discussões na comunidade de IA aumentaram. A suspeita versão quantitativa do modelo miqu de Mistral atraiu a atenção da indústria e a tendência futura é incerta.
Embora este incidente "miqu" tenha sido finalmente confirmado como não sendo um avanço revolucionário, também soou um alerta para a indústria de IA, lembrando a todos que devem prestar atenção à importância da segurança do modelo e da proteção da propriedade intelectual. No futuro, como equilibrar a abertura da comunidade de código aberto e a segurança do modelo se tornará um tema importante.