La puce mémoire HBM3E à 8 couches de Samsung Electronics a réussi le test de Nvidia, ouvrant la voie à sa fourniture de processeurs IA, qui devrait commencer au quatrième trimestre 2024. Cette nouvelle est d'une grande importance pour Samsung, car elle marque une avancée clé dans sa concurrence avec SK Hynix. L'éditeur de Downcodes expliquera en détail le contexte, les défis et les tendances de développement futures de cet incident, et analysera la configuration stratégique de Samsung et la situation de la concurrence sur le marché de la mémoire à large bande passante.
Récemment, la puce de mémoire à large bande passante (HBM) de cinquième génération de Samsung Electronics, HBM3E, a réussi le test de Nvidia et a obtenu la qualification pour une utilisation dans son processeur d'intelligence artificielle (IA). Selon des sources proches du dossier, même si les deux parties n'ont pas encore signé d'accord formel d'approvisionnement, celui-ci devrait être conclu prochainement et l'approvisionnement pourrait commencer au quatrième trimestre 2024. C'est une bonne nouvelle pour Samsung, qui vient enfin de franchir un seuil important dans sa concurrence avec son rival local SK Hynix.
Remarque sur la source de l'image : l'image est générée par l'IA et l'image est autorisée par le fournisseur de services Midjourney
Cependant, la puce HBM3E à 12 couches de Samsung a toujours échoué aux tests de Nvidia. Des sources ont souligné que Samsung a travaillé dur pour réussir les tests de Nvidia au cours de l'année écoulée, mais a été confronté à des défis dus à certains problèmes de chaleur et de consommation d'énergie. Afin de résoudre ces problèmes, Samsung a réajusté la conception du HBM3E et a finalement réussi le test.
HBM est une mémoire vive dynamique (DRAM) sortie pour la première fois en 2013. Les puces sont empilées verticalement pour économiser de l'espace et réduire la consommation d'énergie. HBM est un composant essentiel pour les unités de traitement graphique (GPU) en raison de sa capacité à gérer les grandes quantités de données générées par des applications complexes. Avec l’essor de la technologie de l’intelligence artificielle générative, la demande du marché en GPU hautes performances a fortement augmenté.
Selon l'analyse du cabinet d'études TrendForce, les puces HBM3E devraient devenir courantes sur le marché cette année, notamment en termes de livraisons au cours du second semestre. SK Hynix avance également rapidement dans l'expédition du HBM3E à 12 couches. Samsung s'attend à ce que les puces HBM3E représentent 60 % de ses ventes de puces HBM d'ici le quatrième trimestre 2024. Actuellement, il n'existe que trois grands fabricants de HBM dans le monde : SK Hynix, Micron et Samsung. SK Hynix est devenu le principal fournisseur de puces HBM de Nvidia.
Enfin, le chiffre d'affaires total des puces DRAM de Samsung au premier semestre 2023 s'élève à environ 22 500 milliards de won, et les analystes estiment qu'environ 10 % de ces revenus pourraient provenir des ventes de HBM. Cette nouvelle a attiré l'attention du marché et a rendu les investisseurs pleins d'attentes quant au développement futur de Samsung.
Souligner:
La puce HBM3E à 8 couches de Samsung a réussi les tests de Nvidia et devrait être disponible au quatrième trimestre 2024.
« La puce HBM3E à 12 couches n'a pas encore réussi les tests et Samsung a ajusté la conception pour relever les défis.
Les puces HBM3E devraient devenir courantes sur le marché au cours du second semestre 2023, et la demande du marché pour les GPU hautes performances augmente rapidement.
Dans l'ensemble, la réussite de la puce HBM3E de Samsung au test de NVIDIA est une victoire majeure pour elle sur le marché de la mémoire IA, mais elle fait également face à une pression énorme de la part de concurrents tels que SK Hynix. À l’avenir, Samsung devra poursuivre ses activités de R&D et d’innovation pour améliorer les performances et la compétitivité de ses produits afin de maintenir sa position de leader face à une concurrence féroce sur le marché.