Kürzlich hat der inländische GPU-Hersteller Moore Thread mit „Teacher AI“, einem großen KI-Modell mit Schwerpunkt auf fächerübergreifender Bildung, zusammengearbeitet und das Training und Testen eines großen Modells mit 7 Milliarden Parametern erfolgreich abgeschlossen. Dieser Test wurde auf der Grundlage des Kilo-Card-Intelligent-Computing-Clusters Moore Thread Kuae (KUAE) abgeschlossen. Das Training wurde innerhalb einer Woche effizient abgeschlossen, was die leistungsstarke Rechenleistung des inländischen GPU-Clusters und sein Potenzial für das groß angelegte KI-Modelltraining demonstrierte . Dies zeigt, dass die heimische KI-Technologie wichtige Fortschritte im Bildungsbereich gemacht hat und auch eine solide Grundlage für die innovative Entwicklung zukünftiger KI-Modelle im Bildungsbereich gelegt hat.
Kürzlich gaben Moore Thread und das disziplinübergreifende Bildungs-KI-Großmodell „Teacher AI“ gemeinsam bekannt, dass beide Parteien die Schulung und Prüfung großer Modelle abgeschlossen haben. Basierend auf dem Kilo-Card-Intelligence-Computing-Cluster von Moore Thread Kuae (KUAE) hat Shizhe AI das hochintensive Training eines großen Modells mit 7 Milliarden Parametern erfolgreich abgeschlossen 100-Milliarden-Schulung inländischer GPUs mit vollem Funktionsumfang.
Es wird davon ausgegangen, dass „Teacher AI“ im Jahr 2020 gegründet wurde. Das Kernteam kommt von der Tsinghua-Universität und konzentriert sich auf groß angelegte Bildungsmodelle für alle Disziplinen. Seit der offenen Beta hat es mehr als 25.000 Benutzer, unterstützt mehr als 30 Fachkenntnisse und deckt mehr als 2.000 Lehrbücher ab.
Dieser Trainingstest bestätigte erfolgreich die leistungsstarke Leistung des intelligenten Computing-Clusters Moore Thread Kua'e Qianka beim Training großer Modelle und legte den Grundstein für die zukünftige Innovation beider Parteien bei großen KI-Modellen für den Bildungsbereich. Beide Parteien werden weiterhin Anpassungsarbeiten an der Argumentation großer Modelle durchführen und die Technologie optimieren, um den Anforderungen an hochfrequente Argumentation gerecht zu werden.
Liu Chunjiang, CEO von Shizhe Model, sagte: „Dieser Trainingstest demonstriert die leistungsstarke Leistung des Kua'e Qianka Intelligent Computing Cluster, und wir sind von der lokalisierten Rechenleistung überzeugt. Shizhe Model wird auch in Zukunft Kua'e verwenden.“ Qianka Intelligent Computing Cluster: Führen Sie mehr Kerndienste auf dem Computercluster aus, um Benutzern effiziente und stabile Computerdienste bereitzustellen.“
Der Erfolg dieser Zusammenarbeit markiert einen großen Durchbruch für inländische GPUs im Bereich der KI-Großmodellausbildung und zeigt auch, dass inländische KI-Technologie im Bildungsbereich eine größere Rolle spielen wird. Auch in Zukunft werden die beiden Parteien weiterhin zusammenarbeiten, um den Nutzern bessere Bildungs-KI-Dienste anzubieten und die intelligente Entwicklung des Bildungsbereichs zu fördern.