Récemment, le fabricant national de GPU Moore Thread a coopéré avec « Teacher AI », un grand modèle d'IA axé sur l'éducation multidisciplinaire, et a terminé avec succès la formation et les tests d'un grand modèle avec 7 milliards de paramètres. Ce test a été réalisé sur la base du cluster informatique intelligent à kilo-cartes Moore Thread Kuae (KUAE), et la formation a été réalisée efficacement en une semaine, démontrant la puissante puissance de calcul du cluster GPU national et son potentiel dans la formation de modèles d'IA à grande échelle. . Cela montre que la technologie nationale de l'IA a réalisé des progrès importants dans le domaine de l'éducation et a également jeté une base solide pour le développement innovant des futurs modèles d'IA dans l'éducation.
Récemment, Moore Thread et le grand modèle d'IA pour l'enseignement toutes disciplines « Teacher AI » ont annoncé conjointement que les deux parties avaient suivi une formation et des tests sur un grand modèle. S'appuyant sur le cluster informatique intelligent à kilo-cartes Moore Thread Kuae (KUAE), Shizhe AI a réussi la formation à haute intensité d'un grand modèle avec 7 milliards de paramètres. Cela a pris une semaine et l'efficacité de la formation a atteint les attentes, démontrant pleinement le. 100 milliards de formations sur les capacités de la plate-forme GPU nationale complète.
Il est entendu que « Teacher AI » a été créé en 2020. L'équipe principale vient de l'Université Tsinghua et se concentre sur des modèles éducatifs à grande échelle pour toutes les disciplines. Depuis la version bêta ouverte, il compte plus de 25 000 utilisateurs, prend en charge plus de 30 connaissances thématiques et couvre plus de 2 000 manuels.
Ce test de formation a vérifié avec succès les puissantes performances du cluster informatique intelligent Moore Thread Kua'e Qianka dans la formation de grands modèles, jetant ainsi les bases de l'innovation future des deux parties dans les grands modèles d'IA éducatifs. Les deux parties continueront à mener des travaux d'adaptation sur le raisonnement sur grands modèles et à optimiser la technologie pour répondre aux besoins de raisonnement à haute fréquence.
Liu Chunjiang, PDG de Shizhe Model, a déclaré : « Ce test de formation démontre les puissantes performances du cluster informatique intelligent Kua'e Qianka, et nous sommes confiants dans la puissance de calcul localisée. À l'avenir, Shizhe Model continuera à utiliser Kua'e. Qianka Intelligent Computing Cluster. Exécutez davantage de services de base sur le cluster informatique pour fournir aux utilisateurs des services informatiques efficaces et stables.
Le succès de cette coopération marque une avancée majeure pour les GPU nationaux dans le domaine de la formation de grands modèles d'IA, et indique également que la technologie nationale d'IA jouera un rôle plus important dans le domaine de l'éducation. À l'avenir, les deux parties continueront de coopérer pour fournir aux utilisateurs de meilleurs services éducatifs d'IA et promouvoir le développement intelligent du domaine de l'éducation.