O chip de memória HBM3E de 8 camadas da Samsung Electronics passou com sucesso no teste da Nvidia, abrindo caminho para o fornecimento de seu processador AI, que deverá começar no quarto trimestre de 2024. Esta notícia é de grande importância para a Samsung, marcando um avanço importante na sua concorrência com a SK Hynix. O editor de Downcodes explicará detalhadamente os antecedentes, desafios e tendências futuras de desenvolvimento deste incidente, e analisará o layout estratégico da Samsung e a situação de concorrência de mercado no mercado de memória de alta largura de banda.
Recentemente, o chip de memória de alta largura de banda (HBM) de quinta geração da Samsung Electronics, HBM3E, passou com sucesso no teste da Nvidia e obteve a qualificação para uso em seu processador de inteligência artificial (IA). Segundo pessoas familiarizadas com o assunto, embora as duas partes ainda não tenham assinado um acordo formal de fornecimento, espera-se que este seja alcançado em breve, podendo o fornecimento começar no quarto trimestre de 2024. Esta é uma boa notícia para a Samsung, pois finalmente ultrapassou um limiar importante na sua competição com o rival local SK Hynix.
Nota sobre a fonte da imagem: A imagem é gerada por IA e é autorizada pelo provedor de serviços Midjourney
No entanto, o chip HBM3E de 12 camadas da Samsung ainda falhou nos testes da Nvidia. Fontes apontaram que a Samsung trabalhou duro para passar nos testes da Nvidia no ano passado, mas enfrentou desafios devido a alguns problemas de aquecimento e consumo de energia. Para lidar com esses problemas, a Samsung reajustou o design do HBM3E e finalmente passou no teste com sucesso.
HBM é uma memória dinâmica de acesso aleatório (DRAM) lançada pela primeira vez em 2013. Os chips são empilhados verticalmente para economizar espaço e reduzir o consumo de energia. HBM é um componente crítico para unidades de processamento gráfico (GPUs) devido à sua capacidade de lidar com grandes quantidades de dados gerados por aplicativos complexos. Com o surgimento da tecnologia de inteligência artificial generativa, a demanda do mercado por GPUs de alto desempenho aumentou acentuadamente.
De acordo com análise da empresa de pesquisa TrendForce, espera-se que os chips HBM3E se tornem populares no mercado este ano, especialmente em termos de remessas no segundo semestre do ano. A SK Hynix também está avançando rapidamente no envio do HBM3E de 12 camadas. A Samsung espera que os chips HBM3E representem 60% de suas vendas de chips HBM até o quarto trimestre de 2024. Atualmente, existem apenas três grandes fabricantes de HBM no mundo: SK Hynix, Micron e Samsung SK Hynix tornou-se o principal fornecedor de chips HBM da Nvidia.
Finalmente, a receita total de chips DRAM da Samsung no primeiro semestre de 2023 é de cerca de 22,5 trilhões de won, e os analistas estimam que cerca de 10% dessa receita pode vir das vendas da HBM. Esta notícia atraiu a atenção do mercado e deixou os investidores cheios de expectativas quanto ao desenvolvimento futuro da Samsung.
Destaque:
O chip HBM3E de 8 camadas da Samsung passou nos testes da Nvidia e deverá estar disponível no quarto trimestre de 2024.
“O chip HBM3E de 12 camadas ainda não passou nos testes e a Samsung ajustou o design para enfrentar os desafios.
Espera-se que os chips HBM3E se tornem populares no mercado no segundo semestre de 2023, e a demanda do mercado por GPUs de alto desempenho está crescendo rapidamente.
Resumindo, o chip HBM3E da Samsung que passou no teste da NVIDIA é uma grande vitória para ela na competição do mercado de memória AI, mas também enfrenta uma pressão tremenda de concorrentes como SK Hynix. No futuro, a Samsung terá de continuar a I&D e a inovação para melhorar o desempenho e a competitividade dos produtos, a fim de manter a sua posição de liderança na feroz concorrência do mercado.