Downcodes の編集者は、ミシガン大学の研究者が、大規模な言語モデルのトレーニングのエネルギー消費を大幅に削減できる Perseus と呼ばれるソフトウェア ツールを開発したことを知りました。この画期的な研究結果は、人工知能の持続可能な開発に新たな方向性をもたらし、人工知能トレーニングのエネルギー消費に関する増大する懸念を解決することが期待されています。クリティカル パスを特定して最適化することで、Perseus は同じトレーニング速度を維持しながらエネルギー消費を 30% 削減します。これは環境保護と資源利用にとって非常に重要です。
研究者らは、クリティカル パス、つまり完了までに最も長い時間がかかる一連のサブタスクを特定することにより、Perseus と呼ばれるソフトウェア ツールを開発しました。次に、Perseus は非クリティカル パス上のプロセッサの速度を低下させ、すべてのプロセッサが同時に作業を完了できるようにして、不必要な電力消費を排除します。
チームは、GPT-3、他の 3 つの大きな言語モデル、およびコンピューター ビジョン モデルをトレーニングすることでペルセウスをテストしました。結果は、Perseus が同じトレーニング速度を維持しながら AI トレーニングのエネルギー消費を削減できることを示しています。
研究者らは、この省力化アプローチは人工知能の公平な利用にとって重要な意味を持つと述べている。国に大規模なモデルを実行するのに十分な電力がない場合、リモート サービスを使用するか、より小型で精度の低いモデルの実行に制限する必要がある場合があります。この格差は、異なるコミュニティ間の格差をさらに悪化させる可能性があります。
この研究は、AI トレーニング方法を最適化することで、同じトレーニング速度を維持しながらエネルギー消費を削減できることを示しています。これは、エネルギーの節約と二酸化炭素排出量の削減に重要な意味を持ちます。
ペルセウスの出現は、AI 分野の持続可能な発展に新たな希望をもたらしました。その効率的なエネルギー消費制御戦略は、多くのエネルギーを節約するだけでなく、AI テクノロジーの公平性と包括性を促進し、AI の発展にも貢献します。グローバルAI。この研究結果は私たちの注目と詳細な研究に値するものであり、将来的には同様のテクノロジーがさらに登場し、AI業界をより環境に優しい未来へと押し進めると信じています。