Der Herausgeber von Downcodes erfuhr, dass die neueste Blackwell-Plattform von Nvidia im MLPerf Training 4.1-Benchmark-Test eine erstaunliche Leistung erbrachte und die Leistung der Hopper-Plattform der vorherigen Generation bei weitem übertraf. Die Testergebnisse zeigen, dass Blackwell in mehreren Benchmark-Tests erhebliche Leistungsverbesserungen erzielt hat, was in der Branche große Aufmerksamkeit erregt hat und einen neuen Durchbruch in der KI-Beschleunigertechnologie ankündigt. Insbesondere hat Blackwell beeindruckende Vorteile bei der Feinabstimmung des LLM und bei Vorschulungsaufgaben gezeigt und neue Möglichkeiten für die Entwicklung des KI-Bereichs eröffnet.
Kürzlich hat NVIDIA seine neue Blackwell-Plattform veröffentlicht und im Benchmark-Test MLPerf Training4.1 vorläufige Leistung demonstriert. Den Testergebnissen zufolge hat sich die Leistung von Blackwell im Vergleich zur Hopper-Plattform der vorherigen Generation verdoppelt. Dieses Ergebnis hat in der Branche große Aufmerksamkeit erregt.
Im MLPerf Training4.1-Benchmark erreichte die Blackwell-Plattform in der Llama270B-Feinabstimmungsaufgabe des LLM-Benchmarks (Large Language Model) die 2,2-fache Leistung von Hopper pro GPU und im Vortraining der GPT-3175B-Zeiten das 2,2-fache Verbesserung. Darüber hinaus übertraf die neue Generation von Blackwell auch in anderen Benchmark-Tests wie dem Stable Diffusion v2-Training das Produkt der vorherigen Generation mit einem 1,7-fachen Vorsprung.
Bemerkenswert ist, dass Hopper zwar weiterhin Verbesserungen zeigt, aber auch die Leistung beim Vortraining des Sprachmodells um den Faktor 1,3 im Vergleich zur vorherigen Runde des MLPerf-Training-Benchmarks verbessert. Dies zeigt, dass sich die Technologie von Nvidia weiter verbessert. Im aktuellen GPT-3175B-Benchmark stellte Nvidia 11.616 Hopper-GPUs vor und stellte damit einen neuen Skalierungsrekord auf.
Zu den technischen Details von Blackwell sagte Nvidia, dass die neue Architektur optimierte Tensor-Kerne und schnelleren Speicher mit hoher Bandbreite verwendet. Dadurch kann der GPT-3175B-Benchmark auf nur 64 GPUs ausgeführt werden, während bei Verwendung der Hopper-Plattform 256 GPUs erforderlich wären, um die gleiche Leistung zu erzielen.
Nvidia betonte auf der Pressekonferenz auch die Leistungsverbesserungen der Produkte der Hopper-Generation bei Software- und Netzwerkaktualisierungen, und Blackwell wird voraussichtlich mit zukünftigen Einreichungen weitere Verbesserungen erzielen. Darüber hinaus plant NVIDIA, im nächsten Jahr den KI-Beschleuniger der nächsten Generation, Blackwell Ultra, auf den Markt zu bringen, der voraussichtlich mehr Speicher und eine stärkere Rechenleistung bieten wird.
Blackwell debütierte im vergangenen September auch mit dem MLPerf Inference v4.1-Benchmark und erreichte eine beeindruckende viermal höhere Leistung pro GPU als der H100 bei der KI-Inferenz, insbesondere bei geringerer FP4-Präzision. Dieser neue Trend zielt darauf ab, der wachsenden Nachfrage nach Chatbots mit geringer Latenz und intelligentem Computing wie dem o1-Modell von OpenAI gerecht zu werden.
Die herausragende Leistung der Blackwell-Plattform stellt einen großen Fortschritt in der KI-Beschleunigertechnologie dar, und ihre Leistungsverbesserungen im LLM-Training und in der Inferenz werden die Entwicklung und Anwendung der KI-Technologie erheblich vorantreiben. Der Herausgeber von Downcodes wird weiterhin auf die weitere Entwicklung der Blackwell-Plattform achten und weitere diesbezügliche Berichte veröffentlichen.