El editor de Downcodes se enteró de que la última plataforma Blackwell de Nvidia tuvo un desempeño sorprendente en la prueba comparativa MLPerf Training 4.1, y su rendimiento superó con creces a la plataforma Hopper de la generación anterior. Los resultados de las pruebas muestran que Blackwell ha logrado mejoras significativas en el rendimiento en múltiples pruebas comparativas, lo que ha atraído una atención generalizada en la industria y presagia un nuevo avance en la tecnología de aceleradores de IA. Específicamente, Blackwell ha demostrado ventajas impresionantes en las tareas de preformación y ajuste fino de LLM, lo que brinda nuevas posibilidades al desarrollo del campo de la IA.
Recientemente, NVIDIA lanzó su nueva plataforma Blackwell y demostró un rendimiento preliminar en la prueba comparativa MLPerf Training4.1. Según los resultados de las pruebas, el rendimiento de Blackwell en algunos aspectos se ha duplicado en comparación con la plataforma Hopper de la generación anterior. Este resultado ha atraído una gran atención en la industria.
En el punto de referencia MLPerf Training4.1, la plataforma Blackwell logró 2,2 veces el rendimiento de Hopper por GPU en la tarea de ajuste fino Llama270B del punto de referencia LLM (Large Language Model), y 2,2 veces en el entrenamiento previo de GPT-3175B. mejora. Además, en otras pruebas comparativas como el entrenamiento Stable Diffusion v2, el Blackwell de nueva generación también superó al producto de la generación anterior con una ventaja de 1,7 veces.
En particular, si bien Hopper continúa mostrando mejoras, también mejora el rendimiento en el preentrenamiento del modelo de lenguaje en un factor de 1,3 en comparación con la ronda anterior del punto de referencia MLPerf Training. Esto demuestra que la tecnología de Nvidia sigue mejorando. En el reciente benchmark GPT-3175B, Nvidia presentó 11,616 GPU Hopper, estableciendo un nuevo récord de escala.
Con respecto a los detalles técnicos de Blackwell, Nvidia dijo que la nueva arquitectura utiliza Tensor Cores optimizados y una memoria de gran ancho de banda más rápida. Esto permite ejecutar el punto de referencia GPT-3175B en solo 64 GPU, mientras que usar la plataforma Hopper requeriría 256 GPU para lograr el mismo rendimiento.
Nvidia también enfatizó las mejoras de rendimiento de los productos de la generación Hopper en software y actualizaciones de red en la conferencia de prensa, y se espera que Blackwell continúe mejorando con futuras presentaciones. Además, NVIDIA planea lanzar el próximo año el acelerador de inteligencia artificial Blackwell Ultra de próxima generación, que se espera que proporcione más memoria y mayor potencia informática.
Blackwell también debutó en septiembre pasado en el punto de referencia MLPerf Inference v4.1, logrando un impresionante rendimiento cuatro veces mayor por GPU que el H100 en inferencia de IA, especialmente usando una precisión FP4 más baja. Esta nueva tendencia tiene como objetivo abordar la creciente demanda de chatbots de baja latencia y computación inteligente como el modelo o1 de OpenAI.
El excelente desempeño de la plataforma Blackwell marca un gran avance en la tecnología de aceleradores de IA, y sus mejoras de desempeño en la capacitación e inferencia de LLM promoverán en gran medida el desarrollo y la aplicación de la tecnología de IA. El editor de Downcodes seguirá prestando atención al desarrollo posterior de la plataforma Blackwell y traerá más informes relacionados.