NVIDIA は新世代 AI サーバー GB300 のリリースを控えており、2023 年の第 2 四半期にリリースされ、第 3 四半期に試作される予定です。このサーバーは、熱設計、チップ性能、メモリ仕様、相互接続技術が大幅に向上しており、最大 288GB のメモリ構成を持つ最新の B300 GPU をベースとしたスーパーチップが搭載され、新世代の ConnectX が使用されます。 8 SuperNIC と 1.6Tbps 光モジュールにより、より強力な AI コンピューティング能力を実現します。ただし、完全水冷の放熱ソリューションの導入はコストの大幅な増加につながる可能性があり、最上位構成の価格は既存の GB200NVL72 サーバーよりもはるかに高くなることが予想されます。
GB300 サーバーの最大のハイライトの 1 つは、その放熱設計です。前世代の製品と比較して、GB300 サーバーの冷却要件は大幅に増加しており、マザーボードで使用されるファンの数は減少します。これは、新世代のサーバーが、ハイパフォーマンス コンピューティングによってもたらされる熱の課題にうまく対処するために、水冷システムへの依存度を高めることを意味します。冷却システムの改善はサーバーのパフォーマンスと安定性に直接影響し、高負荷条件下でも良好な動作状態を維持できるようになります。
報道によると、2025 年半ばに発売される予定の NVIDIA の GB300 サーバーは、より強力な AI コンピューティング能力を解放するために、チップから周辺機器まであらゆる側面をカバーする包括的な設計アップグレードを受ける予定です。チップに関しては、GB300サーバーには最新のB300 GPUをベースにしたスーパーチップが搭載され、FP4のパフォーマンスが大幅に向上し、消費電力もB200の1000Wから1400Wに増加し、初代の2倍に達します。 B100世代。この変更は、GB300 サーバーが複雑なコンピューティング タスクを処理する際の機能を強化することを意味します。
メモリに関しては、GB300 の HBM メモリ仕様も 8 スタック 12Hi HBM3E テクノロジーを使用して 288GB にアップグレードされます。これにより、データ処理速度がさらに向上し、全体的なパフォーマンスが向上します。さらに、B300GPU はスロット設計を採用する可能性があり、これにより生産歩留まりが向上し、販売後のメンテナンスが簡素化されることが期待されます。一方、Grace CPU は、既存の LPDDR5 メモリを置き換えるために LPCAMM メモリ モジュールを使用し、パフォーマンスが向上します。
相互接続技術の点では、GB300 サーバーには新世代の ConnectX-8SuperNIC と最大 1.6Tbps の光モジュールが搭載され、データ伝送速度が大幅に向上し、大量のデータを処理する際のサーバーの効率が確保されます。ただし、完全水冷ソリューションの導入により、サーバーのコストも増加します。 WccfTech によると、GB300 サーバーの最高価格は現在の GB200NVL72 サーバーの約 300 万ドルよりもはるかに高くなることが予想されており、ハイエンド市場での地位をさらに強化します。
ハイライト:
GB300AI サーバーは 2023 年の第 2 四半期にリリースされ、第 3 四半期に試作段階に入る予定です。
新しいサーバーは水冷放熱設計を採用しており、マザーボードファンの数が減り、放熱要件が大幅に増加します。
最上位の GB300 サーバーの価格は、現在の GB200NVL72 サーバーよりもはるかに高くなることが予想され、ハイエンド市場に位置付けられます。
NVIDIA GB300AI サーバーのアップグレードにより、AI コンピューティング能力が大幅に向上しますが、高性能になるとコストも高くなります。ハイエンド市場におけるその位置付けとAI分野での将来のアプリケーションは引き続き注目に値します。