Downcodes 編集者のレポート: マスク氏の xAI 会社は最近、世界で最も強力な AI トレーニング クラスターである「メンフィス スーパー クラスター」をテネシー州メンフィスに導入していると発表しました。このクラスターには 100,000 個の水冷 Nvidia H100 GPU が搭載されており、RDMA テクノロジーを使用してデータ転送を最適化し、最も強力な AI モデルの作成を目指しています。この動きは業界で広く注目を集め、AI分野での熾烈な競争を浮き彫りにした。 xAI の目標は 2024 年 12 月までにトレーニングを完了することですが、マスク氏のこれまでのプロジェクトの進捗状況を考慮すると、この目標が達成できるかどうかについてはまだ不確実性があります。
地元のニュース報道によると、スーパークラスターには 100,000 個の水冷 Nvidia H100 グラフィックス プロセッシング ユニット (GPU) が搭載されています。これらのチップは昨年から発売されており、市場の需要が非常に高いため、競合他社の OpenAI でさえこれらのデバイスを使用しています。マスク氏はまた、クラスタ全体が実行時に「リモート・ダイレクト・メモリ・アクセス」(RDMA)と呼ばれる技術を使用しており、これによりコンピューティング・ノード間で効率的にデータを送信し、中央処理装置(CPU)の負荷を軽減できると述べた。
xAI の目標は、このスーパー クラスターを通じて 2024 年 12 月までに「すべての指標で最も強力な AI」をトレーニングすることです。これに対する返答の中でマスク氏は、メンフィスの超銀河団が彼らの目標に「重大な利点」をもたらすだろうと強調した。しかし、マスク氏が過去に複数のプロジェクトで遅れたことを考慮すると、多くの人はこの約束の実現に慎重だ。
実際、xAI の競合他社も怠けているわけではありません。 OpenAI、Anthropic、Google、Microsoft、Meta などの企業は、より強力で手頃な価格の大規模言語モデル (LLM) や小規模言語モデル (SLM) の導入を急いでいます。したがって、xAI には、この人工知能の競争で足場を築くために、革新的で実用的な新しいモデルが必要です。
さらに、この件に詳しい関係者らは、MicrosoftがOpenAIの最高経営責任者(CEO)サム・アルトマン氏と協力して、コードネーム「スターゲイト」と名付けられた1000億ドル規模のAIトレーニング用スーパーコンピューターの開発に取り組んでいることを明らかにした。この計画が実行された場合、xAIのメンフィス超クラスターは世界で最も強力であり続けることができない可能性があります。
ハイライト:
xAI は、100,000 個の Nvidia H100 GPU を搭載した、世界で最も強力な AI トレーニング クラスターの発売を発表しました。
マスク氏は2024年12月までに「最も強力なAI」を訓練する計画で、クラスターは大きな利点をもたらすと述べた。
xAI は OpenAI や Google などの競合他社からの圧力に直面しており、競争力を維持するには革新的なモデルを投入する必要があります。
メンフィス スーパークラスターの完成は、AI のコンピューティング能力をめぐる競争の新たな段階を意味します。xAI が目標を達成できるかどうかは、最終結果をテストする時間がまだ必要です。この AI 軍拡競争の最終的な受益者は全人類です。待って見てみましょう!