ミシガン大学の研究者は、ペルセウスと呼ばれるソフトウェアツールを開発し、大規模な言語モデルのトレーニングのエネルギー消費を大幅に削減しています。この画期的な研究は、トレーニング中にリソース割り当てを最適化することにより、トレーニング速度に影響を与えることなくエネルギー消費を30%減らすことができることを示しています。このテクノロジーは、重要な経済的利益だけでなく、環境保護の原因に大きな貢献をすることもできます。
ミシガン大学の新しい研究では、大規模な言語モデルをトレーニングするための労力節約方法は同時に完了することができますが、エネルギー消費は30%削減できます。このアプローチは、2026年までに110万人の米国の家を電力するのに十分なエネルギーを節約できます。
研究者は、重要なパスを特定するペルセウスと呼ばれるソフトウェアツールを開発しました。これは、完了するのに最も長い時間がかかる一連のサブタスクです。その後、ペルセウスは非批判的なパスでのプロセッサ速度を減速し、すべてが同時に仕事をするようにし、不必要な電力消費を排除します。
チームは、他の3つの大手言語モデルとコンピュータービジョンモデルをトレーニングすることにより、ペルセウスをテストしました。結果は、ペルセウスが同じトレーニング速度を維持しながらAIトレーニングのエネルギー消費を減らすことができることを示しています。
研究者は、この労働節約のアプローチは、人工知能の公正使用にとって非常に重要であると言います。国が大規模なモデルを実行するのに十分な電力がない場合、リモートサービスを使用する必要があるか、より小さく、より正確なモデルのみを実行することができます。このギャップは、異なるコミュニティ間のギャップをさらに悪化させる可能性があります。
この研究は、AIトレーニング方法を最適化することにより、同じトレーニング速度を維持しながらエネルギー消費を減らすことができることを示しています。これは、エネルギーを節約し、二酸化炭素排出量を減らすために非常に重要です。
この研究は、人工知能の分野におけるエネルギー効率の問題に対する効果的なソリューションを提供し、人工知能のより持続可能な発展への道を開き、将来の人工知能の公平性と包括性に対する重要な保証を提供します。ペルセウスには幅広いアプリケーションの見通しがあり、人工知能技術の進歩とより広いアプリケーションを促進することが期待されています。