L’éditeur de Downcodes a appris que la dernière plate-forme Blackwell de Nvidia avait des performances étonnantes lors du test de référence MLPerf Training 4.1 et que ses performances dépassaient largement la plate-forme Hopper de la génération précédente. Les résultats des tests montrent que Blackwell a obtenu des améliorations significatives de ses performances lors de plusieurs tests de référence, ce qui a attiré une large attention dans l'industrie et annonce une nouvelle percée dans la technologie des accélérateurs d'IA. Plus précisément, Blackwell a démontré des avantages impressionnants dans les tâches de réglage fin et de pré-formation du LLM, apportant de nouvelles possibilités au développement du domaine de l'IA.
Récemment, NVIDIA a publié sa nouvelle plate-forme Blackwell et a démontré des performances préliminaires lors du test de référence MLPerf Training4.1. Selon les résultats des tests, les performances de Blackwell dans certains aspects ont doublé par rapport à la plate-forme Hopper de la génération précédente. Ce résultat a attiré une large attention dans l'industrie.
Dans le benchmark MLPerf Training4.1, la plate-forme Blackwell a atteint 2,2 fois les performances de Hopper par GPU dans la tâche de réglage fin Llama270B du benchmark LLM (Large Language Model), et 2,2 fois dans la pré-entraînement des temps GPT-3175B. amélioration. De plus, dans d'autres tests de référence tels que la formation Stable Diffusion v2, la nouvelle génération Blackwell a également surpassé le produit de la génération précédente avec un avantage de 1,7 fois.
Notamment, bien que Hopper continue de s'améliorer, il améliore également les performances de pré-formation du modèle de langage d'un facteur de 1,3 par rapport à la série précédente du benchmark MLPerf Training. Cela montre que la technologie de Nvidia continue de s'améliorer. Dans le récent benchmark GPT-3175B, Nvidia a soumis 11 616 GPU Hopper, établissant un nouveau record de mise à l'échelle.
Concernant les détails techniques de Blackwell, Nvidia a déclaré que la nouvelle architecture utilise des cœurs Tensor optimisés et une mémoire à large bande passante plus rapide. Cela permet d'exécuter le benchmark GPT-3175B sur seulement 64 GPU, alors que l'utilisation de la plate-forme Hopper nécessiterait 256 GPU pour atteindre les mêmes performances.
Nvidia a également souligné les améliorations de performances des produits de la génération Hopper dans les mises à jour logicielles et réseau lors de la conférence de presse, et Blackwell devrait continuer à s'améliorer avec les futures soumissions. En outre, NVIDIA prévoit de lancer l'année prochaine l'accélérateur d'IA de nouvelle génération Blackwell Ultra, qui devrait fournir plus de mémoire et une puissance de calcul plus forte.
Blackwell a également fait ses débuts en septembre dernier sur le benchmark MLPerf Inference v4.1, atteignant des performances impressionnantes quatre fois supérieures par GPU que le H100 en inférence IA, en particulier en utilisant une précision FP4 inférieure. Cette nouvelle tendance vise à répondre à la demande croissante de chatbots à faible latence et d’informatique intelligente comme le modèle o1 d’OpenAI.
Les performances exceptionnelles de la plateforme Blackwell marquent un grand pas en avant dans la technologie des accélérateurs d’IA, et ses améliorations de performances en matière de formation et d’inférence LLM favoriseront grandement le développement et l’application de la technologie d’IA. L'éditeur de Downcodes continuera de prêter attention au développement ultérieur de la plateforme Blackwell et de proposer davantage de rapports connexes.