O editor do Downcodes aprendeu que a OpenAI está cooperando com a Broadcom para desenvolver chips de inferência personalizados, e a Taiwan Semiconductor Manufacturing Company (TSMC) pode servir como fundição. Este movimento atraiu ampla atenção na indústria, e as especulações sobre a direção futura do desenvolvimento do OpenAI são galopantes. Este artigo irá aprofundar as razões por trás do desenvolvimento de chips especializados da OpenAI e seu impacto potencial.
Recentemente, foi relatado que a OpenAI está trabalhando com a Broadcom para desenvolver um chip de inferência personalizado. Segundo a Reuters, as discussões entre as duas empresas são muito confidenciais e a Taiwan Semiconductor Manufacturing Company (TSMC) pode servir como fundição para o projeto. Esta notícia desencadeou especulações generalizadas sobre a futura direção de desenvolvimento do OpenAI.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
Então, por que a OpenAI precisa de seu próprio chip de inferência? Em primeiro lugar, os custos de computação em nuvem da OpenAI são muito elevados. Embora parceiros como a Microsoft suportem parte dos custos, controlar o hardware por conta própria pode, sem dúvida, reduzir significativamente os custos operacionais. Muitas empresas descobriram que construir seus próprios data centers é muito mais econômico do que alugar serviços em nuvem.
Além disso, o desenvolvimento de chips especiais adaptados aos seus próprios serviços também pode ser um objetivo estratégico da OpenAI. Como todos sabemos, as aplicações de IA consomem enormes quantidades de energia, por isso, ao optimizar a sinergia entre hardware e software, os serviços da OpenAI tornar-se-ão mais eficientes.
A OpenAI também está apresentando aos investidores a ideia de construir data centers em grande escala dedicados à execução de serviços de IA que também poderiam ser mais baratos de construir ou operar se equipados com chips personalizados. Além do mais, as considerações das cadeias de abastecimento descentralizadas não podem ser ignoradas. Devido à limitada capacidade global de produção de semicondutores, existe o risco de depender de fornecedores externos, e desenvolver os seus próprios chips pode reduzir a dependência de produtos de terceiros.
Embora não possamos imaginar que a OpenAI estaria disposta a entrar no problemático negócio de venda de hardware, o que requer muito investimento real e aumentaria o número de funcionários, ela poderia ser implantada na borda da rede, onde as tarefas de inferência muitas vezes precisam ser tão mais próximo possível do usuário. Equipamentos relacionados, como muitas redes de distribuição de conteúdo e Netflix, essa arquitetura é definitivamente uma boa ideia.
Falando em chips de inferência, eles não são estranhos ao mercado. Coisas como Inferentia da AWS, Tensor Processing Unit (TPU) do Google e Maia Silicon da Microsoft podem lidar com cargas de trabalho de inferência e treinamento.
Curiosamente, as notícias da parceria da OpenAI com a Broadcom também aumentaram ligeiramente o preço das ações desta última. O último relatório de lucros trimestrais da Broadcom mostrou que ela espera vender US$ 12 bilhões em wafers de silício de IA neste ano fiscal, um número US$ 1 bilhão superior às expectativas anteriores, mas os investidores responderam com alguma decepção. Portanto, trabalhar com um dos nomes mais importantes do software de IA sem dúvida deixará Wall Street ainda mais entusiasmada.
A cooperação entre OpenAI e Broadcom anuncia uma maior integração da cadeia da indústria de IA e traz à OpenAI capacidades mais fortes de controle de custos e autonomia tecnológica. No futuro, os chips de IA personalizados podem tornar-se um dos factores-chave para as grandes empresas de IA melhorarem a sua competitividade. Isto tem um significado de longo alcance para o desenvolvimento de toda a indústria de IA.