最近のCES展示会で、NvidiaのCEOであるJensen Huangは、同社のAIチップパフォーマンス改善速度がムーアの法律の歴史的基準を超えていると発表しました。この声明は、特に技術コミュニティのAI進捗状況の停滞の文脈で、広範囲にわたる注目を集めています。
ムーアの法律は、1965年にIntelの共同設立者であるGordon Mooreによって提案され、コンピューターチップのトランジスタの数が毎年約2倍になると予測し、それによりチップのパフォーマンスが2倍になりました。しかし、近年、ムーアの法律は大幅に遅くなり、Nvidiaのブレークスルーをさらに説得力のあるものにしています。
Huang Renxunは、Nvidiaの最新のデータセンタースーパーチップは、AI推論ワークロードを実行しているときの前世代の30倍以上速いと指摘しました。 「アーキテクチャ、チップ、システム、ライブラリ、アルゴリズムを同時に構築できます。そうすれば、この包括的な技術革新を革新することができるため、ムーアの法律を超えて行くことができます。」 AIチップのフィールドでの位置。
現在、Google、Openai、Anthropicなどの主要なAIラボでは、NVIDIAのAIチップを使用してAIモデルを訓練および実行しています。したがって、これらのチップの進歩は、AIモデルの能力に直接影響し、AI産業全体の開発を促進します。
Huang Renxunはまた、現在3つのアクティブなAI拡張ルールがあることに言及しました。トレーニング前、トレーニング後、テスト時間の計算です。彼は、計算コストの削減を促進するため、ムーアの法律は計算履歴において非常に重要であり、推論プロセスのパフォーマンスの改善も推論コストの削減につながると強調しました。このビューは、AIモデルの広範なアプリケーションの経済的実現可能性を提供します。
一部の人々は、Nvidiaの高価なチップが推論の分野で引き続きリードできるかどうかについて懸念を表明しましたが、Huang Renxunは、最新のGB200NVL72チップは推論ワークロードでのH100チップの30〜40倍高速であると述べ、AIの推論を行います。より経済的で手頃なモデル。このパフォーマンスの改善は、NVIDIAの市場競争力を高めるだけでなく、AIテクノロジーの普及により多くの可能性を提供します。
Huang Renxunは、コンピューティングパワーを改善することは、推論における計算パフォーマンスとコストの手頃な価格の問題を解決するための直接的な効果的な方法であると強調しました。彼は、コンピューティングテクノロジーの継続的な進歩により、AIモデルのコストが減少し続けることを期待していますが、Openaiなどの企業の一部のモデルは現在より高いコストで運営されています。この予測は、AIテクノロジーの将来の開発のための楽観的な絵を描きます。
Huang Renxun氏は、今日のAIチップは10年前と比較して1,000回増加したと述べました。これはムーアの法律をはるかに超える進歩の速度であり、この傾向はすぐに止まらないと考えています。この継続的な技術革新は、AI業界により多くのブレークスルーと機会をもたらします。
重要なポイント:Nvidia CEOのHuang Renxunは、同社のAIチップのパフォーマンス改善がムーアの法律を上回っていると述べました。最新のGB200NVL72チップは、前世代よりもAI推論ワークロードで30〜40倍高速です。 Huang Renxunは、コンピューティングパワーの改善により、AIモデルを使用するコストが徐々に減少すると予測しています。これらの進歩は、Nvidiaの技術的強さを実証するだけでなく、AIテクノロジーの将来の発展の方向性を指摘しています。