O editor de Downcodes descobriu que a mais recente plataforma Blackwell da Nvidia teve um desempenho incrível no teste de benchmark MLPerf Training 4.1 e seu desempenho excedeu em muito a plataforma Hopper da geração anterior. Os resultados dos testes mostram que a Blackwell alcançou melhorias significativas de desempenho em vários testes de benchmark, o que atraiu ampla atenção na indústria e anuncia um novo avanço na tecnologia de aceleradores de IA. Especificamente, a Blackwell demonstrou vantagens impressionantes em tarefas de ajuste fino e pré-treinamento de LLM, trazendo novas possibilidades para o desenvolvimento do campo de IA.
Recentemente, a NVIDIA lançou sua nova plataforma Blackwell e demonstrou desempenho preliminar no teste de benchmark MLPerf Training4.1. De acordo com os resultados dos testes, o desempenho da Blackwell em alguns aspectos dobrou em comparação com a plataforma Hopper da geração anterior. Este resultado atraiu a atenção generalizada da indústria.
No benchmark MLPerf Training4.1, a plataforma Blackwell alcançou 2,2 vezes o desempenho do Hopper por GPU na tarefa de ajuste fino Llama270B do benchmark LLM (Large Language Model) e 2,2 vezes no pré-treinamento dos tempos GPT-3175B melhoria. Além disso, em outros testes de benchmark, como o treinamento Stable Diffusion v2, a nova geração Blackwell também superou o produto da geração anterior com uma vantagem de 1,7 vezes.
Notavelmente, embora Hopper continue a mostrar melhorias, ele também melhora o desempenho no pré-treinamento de modelos de linguagem por um fator de 1,3 em comparação com a rodada anterior do benchmark MLPerf Training. Isso mostra que a tecnologia da Nvidia continua a melhorar. No recente benchmark GPT-3175B, a Nvidia apresentou 11.616 GPUs Hopper, estabelecendo um novo recorde de escala.
Em relação aos detalhes técnicos da Blackwell, a Nvidia disse que a nova arquitetura usa Tensor Cores otimizados e memória mais rápida e de alta largura de banda. Isso permite que o benchmark GPT-3175B seja executado em apenas 64 GPUs, enquanto o uso da plataforma Hopper exigiria 256 GPUs para atingir o mesmo desempenho.
A Nvidia também enfatizou as melhorias de desempenho dos produtos da geração Hopper em atualizações de software e rede na conferência de imprensa, e espera-se que a Blackwell continue a melhorar com envios futuros. Além disso, a NVIDIA planeja lançar o acelerador de IA de próxima geração Blackwell Ultra no próximo ano, que deverá fornecer mais memória e maior poder de computação.
Blackwell também estreou em setembro passado no benchmark MLPerf Inference v4.1, alcançando impressionantes quatro vezes mais desempenho por GPU do que o H100 em inferência de IA, especialmente usando menor precisão de FP4. Esta nova tendência visa atender à crescente demanda por chatbots de baixa latência e computação inteligente como o modelo o1 da OpenAI.
O excelente desempenho da plataforma Blackwell marca um grande avanço na tecnologia de aceleradores de IA, e suas melhorias de desempenho no treinamento e inferência LLM promoverão enormemente o desenvolvimento e a aplicação da tecnologia de IA. O editor do Downcodes continuará atento ao desenvolvimento subsequente da plataforma Blackwell e trará mais relatórios relacionados.