Recentemente, o fabricante nacional de GPU Moore Thread cooperou com o "Teacher AI", um grande modelo de IA focado na educação totalmente disciplinar, e concluiu com sucesso o treinamento e teste de um grande modelo com 7 bilhões de parâmetros. Este teste foi concluído com base no cluster de computação inteligente de quilocard Moore Thread Kuae (KUAE), e o treinamento foi concluído com eficiência em uma semana, demonstrando o poderoso poder de computação do cluster de GPU doméstico e seu potencial em treinamento de modelo de IA em grande escala . Isto marca que a tecnologia nacional de IA fez progressos importantes no campo da educação e também estabeleceu uma base sólida para o desenvolvimento inovador de futuros modelos de IA educacional.
Recentemente, Moore Thread e o grande modelo de IA de educação disciplinar completa "Teacher AI" anunciaram em conjunto que ambas as partes concluíram o treinamento e os testes de grandes modelos. Contando com o cluster de computação inteligente de quilocard Moore Thread Kuae (KUAE), Shizhe AI concluiu com sucesso o treinamento de alta intensidade de um grande modelo com 7 bilhões de parâmetros. Demorou uma semana e a eficiência do treinamento atingiu as expectativas, demonstrando totalmente o. 100 bilhões de treinamento em recursos de plataforma de GPUs domésticas com todos os recursos.
Entende-se que o "Teacher AI" foi criado em 2020. A equipe principal vem da Universidade Tsinghua e se concentra em modelos educacionais em larga escala para todas as disciplinas. Desde a versão beta aberta, tem mais de 25.000 usuários, oferece suporte a mais de 30 conhecimentos de assuntos e abrange mais de 2.000 livros didáticos.
Este teste de treinamento verificou com sucesso o poderoso desempenho do cluster de computação inteligente Moore Thread Kua'e Qianka no treinamento de grandes modelos, estabelecendo as bases para a inovação futura de ambas as partes em grandes modelos de IA educacional. Ambas as partes continuarão a realizar trabalhos de adaptação no raciocínio de grandes modelos e a otimizar a tecnologia para lidar com as necessidades de raciocínio de alta frequência.
Liu Chunjiang, CEO do Modelo Shizhe, disse: "Este teste de treinamento demonstra o poderoso desempenho do Cluster de Computação Inteligente Kua'e Qianka e estamos confiantes no poder de computação localizado. No futuro, o Modelo Shizhe continuará a usar o Kua'e Cluster de computação inteligente Qianka Execute mais serviços essenciais no cluster de computação para fornecer aos usuários serviços de computação eficientes e estáveis.
O sucesso desta cooperação marca um grande avanço para as GPUs nacionais no campo do treinamento de grandes modelos de IA e também indica que a tecnologia doméstica de IA desempenhará um papel maior no campo da educação. No futuro, as duas partes continuarão a cooperar para fornecer aos utilizadores melhores serviços educacionais de IA e promover o desenvolvimento inteligente no campo da educação.