O Laboratório de Inteligência Artificial de Xangai anunciou recentemente que seu modelo acadêmico autodesenvolvido recebeu uma grande atualização e lançou uma nova versão do Scholar Puyu 3.0 (InternLM3). Esta versão fez avanços significativos na eficiência do uso de dados e no desempenho do modelo, alcançando maior desempenho a um custo menor e, pela primeira vez, integrou diálogo regular e capacidades de pensamento aprofundado, melhorando significativamente o desempenho do modelo em cenários de aplicação reais. Esta atualização não só representa um avanço tecnológico, mas também reflete a determinação e a força da China para continuar a inovar no campo da inteligência artificial.
O Laboratório de Inteligência Artificial de Xangai anunciou que seu modelo acadêmico recebeu uma importante atualização de versão e lançou o Scholar Puyu 3.0 (InternLM3). Segundo o laboratório, a nova versão melhorou significativamente a eficiência do uso de dados através de uma estrutura de dados refinada, conseguindo assim um aumento na densidade de pensamento.
O modelo InternLM3-8B-Instruct atualizado usa apenas 4T de dados para treinamento. As autoridades dizem que seu desempenho abrangente excede o de modelos de código aberto do mesmo tamanho e os custos de treinamento são economizados em mais de 75%. É importante notar que esta versão consegue pela primeira vez a integração de diálogo regular e capacidades de pensamento aprofundado num modelo geral, e pode lidar melhor com diversos cenários de utilização da vida real.
Em termos de avaliação do modelo, a equipe de pesquisa adotou um método de avaliação unificado e reproduzível baseado na estrutura de avaliação de código aberto Sinan OpenCompass. O conteúdo da avaliação envolve mais de dez conjuntos de avaliação confiáveis, como CMMLU e GPQA, cobrindo múltiplas dimensões, como raciocínio, matemática, programação, seguimento de instruções, geração de textos longos, diálogo e desempenho abrangente. Os resultados da avaliação mostram que Shusheng Puyu 3.0 lidera a pontuação na maioria dos conjuntos de avaliação e seu desempenho geral está muito próximo do GPT-4o-mini.
O Laboratório de IA de Xangai também afirmou que esta nova versão do modelo se tornou o primeiro modelo de diálogo universal na comunidade de código aberto a suportar o uso do navegador e pode suportar saltos de páginas da web de mais de 20 etapas, permitindo assim a mineração de profundidade Informação.
Página de experiência: https://internlm-chat.intern-ai.org.cn.
Destaque:
O modelo Shusheng Puyu 3.0 é treinado com dados 4T e seu desempenho abrangente excede o de modelos de código aberto da mesma escala, economizando mais de 75% em custos de treinamento.
As pontuações do modelo lideram em vários conjuntos de avaliação confiáveis, e a integração das capacidades de pensamento e diálogo foi bastante melhorada.
O novo modelo suporta o uso de navegador e pode realizar mineração aprofundada de informações, tornando-se um dos destaques da comunidade de código aberto.
Em suma, a atualização do Shusheng Puyu 3.0 demonstra o progresso significativo da China no campo de modelos linguísticos de grande escala. Espera-se que seus métodos de treinamento eficientes e desempenho poderoso promovam a aplicação da tecnologia de inteligência artificial em mais campos, e vale a pena dar uma olhada. antecipar o seu desenvolvimento futuro.