Nvidia lanzó recientemente la nueva plataforma Blackwell y mostró impresionantes mejoras de rendimiento en el punto de referencia MLPERF Training 4.1. En comparación con las plataformas de tolva anteriores, Blackwell duplicó su rendimiento en múltiples tareas de entrenamiento de IA, especialmente en la capacitación del modelo de lenguaje grande (LLM), y su eficiencia ha mejorado significativamente. Este progreso innovador indica otro salto en la potencia informática de IA y sienta una base sólida para la implementación generalizada de aplicaciones de IA en el futuro. Este artículo realizará un análisis en profundidad del rendimiento de la plataforma Blackwell y discutirá su innovación tecnológica y su desarrollo futuro.
Recientemente, NVIDIA lanzó su nueva plataforma Blackwell y demostró un rendimiento preliminar en el punto de referencia de MLPERF Training 4.1. Según los resultados de la prueba, el rendimiento de Blackwell en algunos aspectos se ha duplicado en comparación con la generación anterior de plataformas de tolva, y este logro ha atraído una atención generalizada de la industria.
En el punto de referencia MLPerf Training4.1, la plataforma Blackwell logró 2.2 veces el rendimiento de cada GPU en la tarea de ajuste fino LLAMA270B del punto de referencia LLM (modelo de lenguaje grande), y 2 veces el rendimiento de cada GPU en la pretruación de la capacitación de El GPT-3175B duplica la mejora. Además, en otros puntos de referencia como el entrenamiento de difusión V2 estable, la nueva generación de Blackwell también superó la generación anterior por 1,7 veces.
Vale la pena señalar que, si bien Hopper continúa mostrando mejoras, Hopper también tiene una mejora del rendimiento de 1.3x en el pre-entrenamiento del modelo de lenguaje en comparación con la ronda anterior de los puntos de referencia de entrenamiento MLPERF. Esto muestra que la tecnología de Nvidia continúa mejorando. En el reciente punto de referencia GPT-3175B, NVIDIA presentó 11,616 GPU Hopper, estableciendo un nuevo registro de expansión.
Con respecto a los detalles técnicos de Blackwell, Nvidia dijo que la nueva arquitectura utiliza núcleos de tensor optimizados y memoria más rápida de alto ancho de banda. Esto hace que solo sean 64 GPU en ejecutar el punto de referencia GPT-3175B, mientras que 256 GPU para lograr el mismo rendimiento utilizando la plataforma Hopper.
Nvidia también enfatizó la mejora del rendimiento de los productos de generación de Hopper en actualizaciones de software y red en la conferencia de prensa, y se espera que Blackwell continúe mejorando con futuras presentaciones. Además, NVIDIA planea lanzar la próxima generación del acelerador de IA Blackwell Ultra el próximo año, que se espera que proporcione más memoria y potencia informática más fuerte.
Blackwell también debutó en septiembre pasado en el punto de referencia MLPERF Inference V4.1, y en términos de inferencia de IA, logra 4 veces más rendimiento sorprendente por GPU que la H100, especialmente con la esencia de precisión FP4 más baja Esta nueva tendencia está diseñada para hacer frente a la creciente demanda de chatbots de baja latencia y computación inteligente, como el modelo O1 de OpenAI.
Agujas:
- ** La plataforma Nvidia Blackwell duplica su rendimiento en la capacitación de IA, rompiendo los estándares de la industria! **
- ** Blackwell solo requiere 64 GPU en el punto de referencia GPT-3175B, mejorando significativamente la eficiencia! **
- ** Blackwell Ultra se lanzará el próximo año, lo que se espera que proporcione una mayor memoria y potencia informática! **
En resumen, la aparición de la plataforma Blackwell de Nvidia marca un gran avance en el campo de la computación de IA. Su importante mejora del rendimiento y el lanzamiento futuro de Blackwell Ultra promoverán aún más el desarrollo y la aplicación de la tecnología de IA y traerán más posibilidades a todas las industrias. Tenemos razones para esperar que la plataforma Blackwell juegue un papel más importante en el futuro.