Der 8-schichtige HBM3E-Speicherchip von Samsung Electronics hat den Test von Nvidia erfolgreich bestanden und ebnet damit den Weg für die Lieferung von KI-Prozessoren, die voraussichtlich im vierten Quartal 2024 beginnen wird. Diese Nachricht ist für Samsung von großer Bedeutung und markiert einen wichtigen Fortschritt im Wettbewerb mit SK Hynix. Der Herausgeber von Downcodes wird die Hintergründe, Herausforderungen und zukünftigen Entwicklungstrends dieses Vorfalls ausführlich erläutern und Samsungs strategische Ausrichtung und Marktwettbewerbssituation im Markt für Speicher mit hoher Bandbreite analysieren.
Kürzlich hat der High-Bandwidth-Memory-Chip (HBM) der fünften Generation, HBM3E, von Samsung Electronics den Nvidia-Test erfolgreich bestanden und die Qualifikation für den Einsatz in seinem Prozessor für künstliche Intelligenz (KI) erhalten. Nach Angaben von mit der Angelegenheit vertrauten Personen haben die beiden Parteien zwar noch keine formelle Liefervereinbarung unterzeichnet, diese wird jedoch voraussichtlich bald abgeschlossen und die Lieferung könnte im vierten Quartal 2024 beginnen. Das sind gute Nachrichten für Samsung, da das Unternehmen im Wettbewerb mit dem Lokalrivalen SK Hynix endlich eine wichtige Schwelle überschritten hat.
Hinweis zur Bildquelle: Das Bild wird von KI generiert und vom Dienstanbieter Midjourney autorisiert
Der 12-Layer-HBM3E-Chip von Samsung hat die Tests von Nvidia jedoch immer noch nicht bestanden. Quellen wiesen darauf hin, dass Samsung im vergangenen Jahr hart daran gearbeitet habe, die Nvidia-Tests zu bestehen, aber aufgrund einiger Probleme mit der Hitze und dem Stromverbrauch vor Herausforderungen stand. Um diese Probleme in den Griff zu bekommen, hat Samsung das Design des HBM3E neu angepasst und den Test schließlich erfolgreich bestanden.
HBM ist ein dynamischer Direktzugriffsspeicher (DRAM), der erstmals 2013 auf den Markt kam. Die Chips sind vertikal gestapelt, um Platz zu sparen und den Stromverbrauch zu senken. HBM ist eine wichtige Komponente für Grafikprozessoren (GPUs), da es in der Lage ist, die großen Datenmengen zu verarbeiten, die durch komplexe Anwendungen generiert werden. Mit dem Aufkommen generativer künstlicher Intelligenz ist die Marktnachfrage nach Hochleistungs-GPUs stark gestiegen.
Laut einer Analyse des Forschungsunternehmens TrendForce werden HBM3E-Chips voraussichtlich in diesem Jahr zum Mainstream auf dem Markt werden, insbesondere im Hinblick auf die Auslieferungen in der zweiten Jahreshälfte. SK Hynix treibt auch die Lieferung von 12-lagigem HBM3E zügig voran. Samsung geht davon aus, dass HBM3E-Chips bis zum vierten Quartal 2024 60 % seines HBM-Chip-Umsatzes ausmachen werden. Derzeit gibt es weltweit nur drei große HBM-Hersteller: SK Hynix, Micron und Samsung. SK Hynix ist Nvidias wichtigster HBM-Chiplieferant geworden.
Schließlich beträgt der Gesamtumsatz von Samsung mit DRAM-Chips im ersten Halbjahr 2023 etwa 22,5 Billionen Won, und Analysten schätzen, dass etwa 10 % dieses Umsatzes aus HBM-Verkäufen stammen könnten. Diese Nachricht erregte die Aufmerksamkeit des Marktes und löste bei den Anlegern große Erwartungen hinsichtlich der zukünftigen Entwicklung von Samsung aus.
Highlight:
Der 8-Schicht-HBM3E-Chip von Samsung hat die Tests von Nvidia bestanden und wird voraussichtlich im vierten Quartal 2024 verfügbar sein.
„Der 12-Schicht-HBM3E-Chip hat die Tests noch nicht bestanden und Samsung hat das Design angepasst, um den Herausforderungen gerecht zu werden.“
HBM3E-Chips werden voraussichtlich in der zweiten Jahreshälfte 2023 zum Mainstream auf dem Markt werden und die Marktnachfrage nach Hochleistungs-GPUs wächst rasant.
Alles in allem ist das Bestehen des NVIDIA-Tests für den HBM3E-Chip von Samsung ein großer Sieg im Wettbewerb auf dem KI-Speichermarkt, aber er steht auch unter enormem Druck von Konkurrenten wie SK Hynix. In Zukunft muss Samsung seine Forschung, Entwicklung und Innovation fortsetzen, um die Produktleistung und Wettbewerbsfähigkeit zu verbessern und seine führende Position im harten Wettbewerb auf dem Markt zu behaupten.