A cooperação entre o OpenAI e a Broadcom atraiu atenção generalizada, e ambas as partes planejam desenvolver chips de inferência personalizados para otimizar a eficiência dos serviços de IA e reduzir os custos de computação em nuvem. Esse movimento não apenas demonstra o layout estratégico do OpenAI no campo de hardware, mas também indica uma nova direção para o desenvolvimento futuro da tecnologia de IA.
Recentemente, foi relatado que o OpenAI está trabalhando com a Broadcom para desenvolver um chip de inferência personalizado. Segundo a Reuters, as discussões entre as duas empresas são muito confidenciais, e a Taiwan Semiconductor Manufacturing Corporation (TSMC) pode servir de fundição para o projeto. Esta notícia provocou especulações generalizadas do mundo exterior sobre a futura direção de desenvolvimento do Openai.
Notas da fonte da imagem: A imagem é gerada pela IA e a imagem autorizada provedor de serviços Midjourney
Então, por que o OpenAI precisa de seu próprio chip de inferência? Muitas empresas descobriram que optar por construir seus próprios data centers é muito mais econômico do que alugar serviços em nuvem.
Além disso, o desenvolvimento de chips dedicados que são adaptados aos seus próprios serviços também pode ser um objetivo estratégico do OpenAI. Como todos sabemos, os aplicativos de IA consomem muita energia; portanto, otimizando a sinergia entre hardware e software, os serviços do OpenAI se tornarão mais eficientes.
O OpenAI também está mostrando aos investidores a idéia de criar grandes data centers projetados especificamente para executar serviços de IA que também podem custar menos para construir ou operar se equipados com chips personalizados. Além disso, a consideração de cadeias de suprimentos descentralizadas não pode ser ignorada. Devido à capacidade limitada de produção global de semicondutores, existe o risco de confiar em fornecedores externos e o desenvolvimento de chips próprios pode reduzir a dependência de produtos de terceiros.
Embora não possamos imaginar que o OpenAI esteja disposto a entrar na indústria de complicações de vendas de hardware, pois exige muito investimento real e aumenta o número de funcionários, o OpenAI pode ser implantado na borda da rede quando as tarefas de inferência geralmente precisam Esteja o mais próximo dos usuários possíveis dispositivos relacionados, como muitas redes de distribuição de conteúdo e Netflix, essa arquitetura é definitivamente uma boa ideia.
Falando em chips de raciocínio, na verdade não está familiarizado com eles no mercado. Inferentia da AWS, a Unidade de Processamento de Tensores do Google (TPU) e as bolachas Maia da Microsoft podem lidar com cargas de trabalho de inferência e treinamento.
Curiosamente, as notícias da parceria da Openai com a Broadcom também levaram o preço das ações deste último a aumentar um pouco. O mais recente relatório de ganhos trimestrais da Broadcom mostra que ele deve vender US $ 12 bilhões em AI Wafers neste ano fiscal, um número de US $ 1 bilhão superior às expectativas anteriores, mas as reações dos investidores parecem um pouco decepcionadas. Portanto, trabalhar com esse nome mais quente no campo do software de IA, sem dúvida, tornará Wall Street ainda mais animado.
Pontos -chave:
O OpenAI e a Broadcom estão negociando para desenvolver chips de inferência personalizados para reduzir os custos de computação em nuvem.
O próprio chip pode otimizar a colaboração entre hardware e software e melhorar a eficiência do serviço de IA.
A Broadcom espera vender US $ 12 bilhões em AI Silicon Wafra neste ano fiscal, e as notícias da cooperação aumentam os preços das ações.
A cooperação entre o Openai e a Broadcom não é apenas um avanço tecnológico, mas também um passo importante no desenvolvimento futuro da IA. Ao personalizar chips, o OpenAI deve ocupar uma posição mais vantajosa no campo da IA.