近期,Epoch AI 的研究對ChatGPT 的能耗進行了重新評估,結果顯示其能耗遠低於之前的預期。這項研究不僅修正了公眾對ChatGPT 能耗的誤解,也為AI 行業的未來發展提供了新的視角。研究指出,當前ChatGPT 的平均能耗遠低於早期的估算值,這有助於消除公眾對於AI 高能耗的擔憂,並促進AI 技術的更廣泛應用。
最近,一項由非營利組織Epoch AI 進行的研究揭示了OpenAI 的聊天機器人平台ChatGPT 的能耗情況,結果顯示,ChatGPT 的能耗遠低於早期的估算。根據一些報導,ChatGPT 回答一個問題需要約3瓦時的電力,而Epoch AI 的研究認為這個數據被高估了。研究表明,使用OpenAI 最新默認模型GPT-4o 時,平均每個查詢僅消耗約0.3瓦時的電力,這一數字甚至低於許多家用電器的能耗。
Epoch AI 的數據分析師Joshua You 表示,傳統上人們對AI 能耗的擔憂並沒有準確反映出當前的情況。早期的3瓦時估算主要是基於一些過時的研究和假設,當時的假設是OpenAI 使用的是效率較低的芯片。 You 還指出,儘管公眾對AI 未來的能耗有合理的擔憂,但對目前的情況並沒有清晰的認識。
然而,You 也承認,Epoch 的0.3瓦時的數字仍是一個近似值,因為OpenAI 並未公開詳細的能耗計算數據。此外,這項分析也沒有考慮到一些附加功能所帶來的能耗,比如圖像生成或輸入處理。對於較長的輸入查詢,如帶有大量文件的查詢,You 表示這類查詢的能耗可能會更高。
儘管目前的能耗數據較低,You 預計未來的能耗仍可能會上升。他提到,隨著AI 技術的進步,訓練這些模型的能量需求可能會增加,未來的AI 也可能承擔更複雜的任務,從而消耗更多的電力。
與此同時,AI 的基礎設施正在快速擴展,這將導致巨大的電力需求。例如,根據Rand 公司的報告,預計在未來兩年內,AI 數據中心可能需要幾乎全部加利福尼亞州2022年的電力供應。到2030年,訓練一個前沿模型的能耗將達到相當於八個核反應堆的電力輸出。
OpenAI 和其投資合作夥伴計劃在未來幾年內在新AI 數據中心項目上投入數十億美元。隨著AI 技術的發展,行業的關注也開始轉向推理模型,這些模型在處理任務時更具能力,但也需要更多的計算能力和電力支持。
對於那些關心自己AI 能耗的人,You 建議可以減少使用頻率,或選擇計算需求較低的模型來進行使用。
劃重點:
ChatGPT 的平均能耗為0.3瓦時,遠低於早期估算的3瓦時。
AI 能耗的增加主要與未來的技術進步和更複雜任務的處理有關。
OpenAI 計劃在未來幾年投入巨額資金擴展AI 數據中心,以滿足日益增長的電力需求。
總而言之,Epoch AI 的研究為我們提供了對ChatGPT 能耗現狀的更清晰認識,也提醒我們關注未來AI 能耗的潛在增長。在享受AI 技術進步的同時,我們也需要積極探索更節能的AI 技術和基礎設施,以實現可持續發展。