Em 13 de novembro, no AI Summit de 2024 no Japão, a NVIDIA e o SoftBank anunciaram uma série de planos de cooperação com o objetivo de acelerar o desenvolvimento do projeto soberano de IA do Japão (IA soberana, infraestrutura de IA de nível nacional) e fortalecer a liderança tecnológica global da NVIDIA, ao mesmo tempo que traz bilhões de dólares em novas receitas para a indústria global de telecomunicações.
O fundador e CEO da NVIDIA, Jensen Huang, revelou em seu discurso de abertura que a SoftBank está usando a plataforma Blackwell para construir o supercomputador de IA mais poderoso do Japão e planeja atualizar para a plataforma Grace Blackwell no futuro.
Ao mesmo tempo, a NVIDIA anunciou que o SoftBank usou com sucesso a plataforma NVIDIA AI Aerial para realizar o primeiro teste de integração mundial de redes de telecomunicações AI e 5G. Este avanço abrirá bilhões de dólares em novos canais de receita para operadoras de telecomunicações.
Além disso, a NVIDIA e o SoftBank também anunciaram em conjunto que usarão o software NVIDIA AI Enterprise para criar um mercado que atenda às necessidades locais de computação segura de IA do Japão. Este novo serviço apoiará o treinamento em IA, raciocínio de ponta e outras funções, ajudando o SoftBank a se tornar o núcleo da rede de IA do Japão e a criar, distribuir e utilizar novas oportunidades de negócios para serviços de inteligência artificial para vários setores, consumidores e empresas.
Huang Renxun disse que esta cooperação com o SoftBank empurrará o Japão para a revolução industrial da IA e liderará uma nova era de crescimento em setores como telecomunicações, transporte, robótica e saúde.
Junichi Miyagawa, presidente e CEO da SoftBank, enfatizou que o mundo está acelerando a adoção da IA para promover o desenvolvimento social, e a cooperação de longo prazo entre a SoftBank e a Nvidia ajudará nesta transformação. Com sua poderosa infraestrutura de IA e a inovadora solução AI-RAN distribuída "AITRAS", a SoftBank remodelará as redes 5G e acelerará o ritmo da inovação em todo o mundo.
A SoftBank está prestes a receber o primeiro sistema NVIDIA DGX B200 do mundo, que se tornará o elemento central de seu novo supercomputador NVIDIA DGX SuperPOD.
A SoftBank pretende usar este DGX SuperPOD desenvolvido pela Blackwell não apenas para promover sua própria pesquisa e desenvolvimento generativo de IA e negócios relacionados à IA, mas também para apoiar as necessidades de IA de universidades, instituições de pesquisa e empresas japonesas.
Espera-se que, após a conclusão, o DGX SuperPOD da SoftBank se torne o sistema de supercomputação mais notável do Japão. Ele vem com software NVIDIA AI Enterprise e rede NVIDIA Quantum-2 InfiniBand, que é particularmente adequado para o desenvolvimento de grandes modelos de linguagem.
Além do DGX SuperPOD, a SoftBank também está planejando outro supercomputador focado em tarefas de alta intensidade computacional. O computador está inicialmente planejado para ser construído com base na plataforma NVIDIA Grace Blackwell e integrar o sistema NVIDIA GB200 NVL72 multi-node, refrigerado a líquido e em nível de rack, combinando perfeitamente a GPU NVIDIA Blackwell com a eficiente CPU NVIDIA Grace da arquitetura Arm.
A SoftBank trabalhou em estreita colaboração com a Nvidia para alcançar um marco tecnológico – o desenvolvimento de uma nova rede de telecomunicações que pode levar em conta cargas de trabalho de IA e 5G, que a indústria chama de AI Radio Access Network (AI-RAN). Esta infraestrutura inovadora é amplamente favorecida pelo ecossistema da indústria de telecomunicações porque ajuda as operadoras a transformar estações base de encargos de custos em recursos geradores de receitas de IA.
Em um teste externo na província de Kanagawa, no Japão, o SoftBank verificou que sua solução AI-RAN baseada na aceleração NVIDIA alcançou desempenho 5G de nível de operadora e pode executar tarefas de inferência de IA sem problemas enquanto utiliza a capacidade restante da rede.
As redes de telecomunicações tradicionais são projetadas para lidar com horários de pico, mas a utilização média é de apenas um terço. Espera-se que as capacidades gerais de computação da AI-RAN proporcionem às empresas de telecomunicações a oportunidade de converter os dois terços restantes da capacidade em serviços de inferência de IA para comercialização.
De acordo com estimativas da NVIDIA e do SoftBank, espera-se que as operadoras de telecomunicações obtenham aproximadamente US$ 5 em receita de inferência de IA para cada US$ 1 em despesas de capital que investem em nova infraestrutura AI-RAN. Levando em consideração os custos operacionais e as despesas de capital, o SoftBank prevê que para cada servidor AI-RAN adicional, a taxa de retorno da sua infraestrutura pode chegar a 219%.