A Openai anunciou sua colaboração com a Broadcom para desenvolver chips de inferência de IA personalizados, marcando um passo essencial no campo dos chips de IA e desafiando a liderança da Nvidia no campo. Esse movimento tem como objetivo resolver os problemas da escassez no fornecimento de chips de IA e altos custos, refletindo a intenção estratégica da OpenAI de procurar autonomia da cadeia de suprimentos e reduzir os custos operacionais. Este não é apenas um ajuste estratégico ao próprio desenvolvimento da OpenAI, mas também indica que o cenário competitivo do mercado de chips de IA está prestes a passar por profundas mudanças.
O OpenAI formou uma equipe especial, com a Broadcom responsável pelo design de chips e pelo TSMC responsável pela fabricação, e deve ser colocado em produção em 2026. Esse movimento também mostra que o OpenAI está explorando ativamente estratégias diversificadas de suprimentos, reduzindo sua dependência da NVIDIA e planeja cooperar com outros fabricantes de chips, como a AMD. Embora enfrente a concorrência de gigantes como Google e Microsoft, a transformação estratégica do OpenAI, sem dúvida, terá um impacto profundo no mercado de chips de IA e promova a inovação tecnológica da indústria e a concorrência saudável.
A OpenAI anunciou oficialmente sua entrada no campo dos chips de IA, cooperou com a gigante da Chip Broadcom e planejava desenvolver o primeiro chip de inferência de IA personalizado. Esse movimento estratégico não apenas marca um passo importante para a independência da cadeia de suprimentos da OpenAI, mas também aponta diretamente para a situação atual em que a NVIDIA é a participante dominante no mercado de chips de AI.
Segundo a Reuters, o Openai formou uma equipe profissional de P&D de cerca de 20 pessoas, incluindo o engenheiro -chefe que participou do desenvolvimento dos processadores tensores do Google. O projeto será projetado pela Broadcom e fabricado pelo TSMC, e deve ser colocado em produção em 2026. Vale a pena notar que o OpenAI já havia considerado estabelecer uma fundição de chip, mas acabou recorrendo à estratégia de design de chips devido ao alto custo.
Existem dois drivers importantes por trás do movimento do Openai: um é aliviar a escassez de suprimentos de chips de IA e o outro é reduzir os custos operacionais. O CEO da empresa, Ultraman, declarou publicamente que está atualmente enfrentando a dupla pressão da escassez de processadores e altos custos de hardware. Como um dos maiores compradores de GPUs da NVIDIA, o OpenAI confiou nos supercomputadores da Microsoft equipados com 10.000 GPUs da NVIDIA para desenvolver sua tecnologia generativa de IA desde 2020.
Para reduzir sua dependência da NVIDIA, o OpenAI começou a explorar estratégias de fornecimento diversificadas e planos de usar chips AMD para treinamento de modelos na plataforma Microsoft Azure Cloud. Esta decisão está relacionada ao progresso da AMD MI300 AI Chip lançado no ano passado.
Embora a colaboração possa causar a insatisfação da NVIDIA, o OpenAI disse que continuará a manter boas relações com os fabricantes de chips existentes, especialmente quando se trata de usar os chips Blackwell da próxima geração. Depois que a notícia foi anunciada, o preço das ações da Broadcom aumentou e a AMD também continuou sua ascensão, indicando que o mercado está otimista sobre a concorrência intensificada no campo de chip de IA.
Essa transformação estratégica marca o OpenAI que se une ao acampamento de chip auto-desenvolvido de gigantes da tecnologia, como Meta e Google. No entanto, diante de produtos maduros, como a TPU do Google e o MAIA100 da Microsoft, o OpenAI ainda precisa investir muitos recursos para ganhar uma posição no campo dos chips de AI. O mercado geralmente acredita que esse movimento reformulará o padrão de suprimento de chips de IA e promoverá uma concorrência saudável no setor.
O Openai entra no campo dos chips de IA, e seu layout estratégico vale a pena prestar atenção. Isso marca que a concorrência no campo dos chips de IA se tornará mais intensa e também indica uma nova direção para o desenvolvimento da tecnologia de IA no futuro.