近期,Epoch AI 的研究对 ChatGPT 的能耗进行了重新评估,结果显示其能耗远低于之前的预期。这项研究不仅修正了公众对 ChatGPT 能耗的误解,也为 AI 行业的未来发展提供了新的视角。研究指出,当前 ChatGPT 的平均能耗远低于早期的估算值,这有助于消除公众对于 AI 高能耗的担忧,并促进 AI 技术的更广泛应用。
最近,一项由非营利组织 Epoch AI 进行的研究揭示了 OpenAI 的聊天机器人平台 ChatGPT 的能耗情况,结果显示,ChatGPT 的能耗远低于早期的估算。根据一些报道,ChatGPT 回答一个问题需要约3瓦时的电力,而 Epoch AI 的研究认为这个数据被高估了。研究表明,使用 OpenAI 最新默认模型 GPT-4o 时,平均每个查询仅消耗约0.3瓦时的电力,这一数字甚至低于许多家用电器的能耗。
Epoch AI 的数据分析师 Joshua You 表示,传统上人们对 AI 能耗的担忧并没有准确反映出当前的情况。早期的3瓦时估算主要是基于一些过时的研究和假设,当时的假设是 OpenAI 使用的是效率较低的芯片。You 还指出,尽管公众对 AI 未来的能耗有合理的担忧,但对目前的情况并没有清晰的认识。
然而,You 也承认,Epoch 的0.3瓦时的数字仍是一个近似值,因为 OpenAI 并未公开详细的能耗计算数据。此外,这项分析也没有考虑到一些附加功能所带来的能耗,比如图像生成或输入处理。对于较长的输入查询,如带有大量文件的查询,You 表示这类查询的能耗可能会更高。
尽管目前的能耗数据较低,You 预计未来的能耗仍可能会上升。他提到,随着 AI 技术的进步,训练这些模型的能量需求可能会增加,未来的 AI 也可能承担更复杂的任务,从而消耗更多的电力。
与此同时,AI 的基础设施正在快速扩展,这将导致巨大的电力需求。例如,根据 Rand 公司的报告,预计在未来两年内,AI 数据中心可能需要几乎全部加利福尼亚州2022年的电力供应。到2030年,训练一个前沿模型的能耗将达到相当于八个核反应堆的电力输出。
OpenAI 和其投资合作伙伴计划在未来几年内在新 AI 数据中心项目上投入数十亿美元。随着 AI 技术的发展,行业的关注也开始转向推理模型,这些模型在处理任务时更具能力,但也需要更多的计算能力和电力支持。
对于那些关心自己 AI 能耗的人,You 建议可以减少使用频率,或选择计算需求较低的模型来进行使用。
划重点:
ChatGPT 的平均能耗为0.3瓦时,远低于早期估算的3瓦时。
AI 能耗的增加主要与未来的技术进步和更复杂任务的处理有关。
OpenAI 计划在未来几年投入巨额资金扩展 AI 数据中心,以满足日益增长的电力需求。
总而言之,Epoch AI 的研究为我们提供了对 ChatGPT 能耗现状的更清晰认识,也提醒我们关注未来 AI 能耗的潜在增长。在享受 AI 技术进步的同时,我们也需要积极探索更节能的 AI 技术和基础设施,以实现可持续发展。