NVIDIA steht kurz vor der Veröffentlichung einer neuen Generation des KI-Servers GB300, der voraussichtlich im zweiten Quartal 2023 auf den Markt kommen und im dritten Quartal in die Testproduktion gehen wird. Der Server verfügt über erhebliche Verbesserungen im thermischen Design, der Chipleistung, den Speicherspezifikationen und der Verbindungstechnologie. Er wird mit einem Superchip basierend auf der neuesten B300-GPU mit einer Speicherkonfiguration von bis zu 288 GB ausgestattet sein und eine neue Generation von ConnectX verwenden. 8 SuperNIC und 1,6 Tbit/s optisches Modul mit dem Ziel, eine stärkere KI-Rechenleistung freizusetzen. Allerdings kann die Einführung einer vollständig wassergekühlten Wärmeableitungslösung auch zu einem erheblichen Kostenanstieg führen, und der Preis der Top-Konfiguration wird voraussichtlich deutlich höher sein als der des bestehenden GB200NVL72-Servers.
Eines der größten Highlights des GB300-Servers ist sein Wärmeableitungsdesign. Im Vergleich zu den Produkten der vorherigen Generation ist der Kühlbedarf des GB300-Servers deutlich gestiegen und die Anzahl der auf dem Motherboard verwendeten Lüfter wird reduziert. Dies bedeutet, dass die neue Generation von Servern stärker auf Wasserkühlungssysteme angewiesen sein wird, um die thermischen Herausforderungen des Hochleistungsrechnens besser bewältigen zu können. Verbesserungen am Kühlsystem wirken sich direkt auf die Leistung und Stabilität des Servers aus und sorgen dafür, dass dieser auch unter hohen Lastbedingungen einen guten Betriebszustand beibehält.
Berichten zufolge wird der GB300-Server von NVIDIA, der voraussichtlich Mitte 2025 auf den Markt kommt, einem umfassenden Design-Upgrade unterzogen, das alle Aspekte von Chips bis hin zu Peripheriegeräten abdeckt, um leistungsfähigere KI-Rechenleistung freizusetzen. Was die Chips betrifft, wird der GB300-Server mit einem Superchip ausgestattet sein, der auf der neuesten B300-GPU basiert. Seine FP4-Leistung wird erheblich verbessert, und auch der Stromverbrauch wird von 1000 W des B200 auf 1400 W steigen und damit das Doppelte des ersten erreichen Generation B100. Diese Änderung bedeutet, dass der GB300-Server über stärkere Fähigkeiten bei der Bewältigung komplexer Rechenaufgaben verfügt.
In Bezug auf den Speicher werden die HBM-Speicherspezifikationen des GB300 ebenfalls auf 288 GB aktualisiert, wobei die 8-Stack-12Hi-HBM3E-Technologie zum Einsatz kommt. Dadurch wird die Datenverarbeitungsgeschwindigkeit weiter erhöht und die Gesamtleistung verbessert. Darüber hinaus verfügt die B300GPU möglicherweise über ein Steckplatzdesign, das die Produktionsausbeute verbessern und die Wartung nach dem Verkauf vereinfachen soll, während die Grace-CPU LPCAMM-Speichermodule verwenden wird, um den vorhandenen LPDDR5-Speicher zu ersetzen und so die Leistung zu verbessern.
Im Hinblick auf die Verbindungstechnologie wird der GB300-Server mit einer neuen Generation von ConnectX-8SuperNIC und optischen Modulen bis zu 1,6 Tbit/s ausgestattet sein, was die Datenübertragungsgeschwindigkeit deutlich erhöhen und die Effizienz des Servers bei der Verarbeitung großer Datenmengen sicherstellen wird. Die Einführung vollständiger Wasserkühlungslösungen wird jedoch auch die Kosten für Server erhöhen. Laut WccfTech dürfte der Top-End-Preis des GB300-Servers weitaus höher sein als der des aktuellen GB200NVL72-Servers, der etwa 3 Millionen US-Dollar beträgt, was seine Positionierung im High-End-Markt weiter festigt.
Höhepunkte:
Der GB300AI-Server wird voraussichtlich im zweiten Quartal 2023 veröffentlicht und im dritten Quartal in die Testproduktionsphase eintreten.
Der neue Server verfügt über ein wassergekühltes Wärmeableitungsdesign mit einer reduzierten Anzahl von Motherboard-Lüftern und einem deutlich höheren Wärmeableitungsbedarf.
Der Preis des Spitzenservers GB300 wird voraussichtlich deutlich höher sein als der des aktuellen Servers GB200NVL72, wodurch er sich im gehobenen Marktsegment positioniert.
Das Upgrade des NVIDIA GB300AI-Servers wird die KI-Rechenfähigkeiten erheblich verbessern, aber hohe Leistung bedeutet auch hohe Kosten. Seine Positionierung im High-End-Markt und seine zukünftigen Anwendungen im KI-Bereich verdienen kontinuierliche Aufmerksamkeit.