密歇根大学的研究人员开发了一种名为Perseus的软件工具,能够显着降低大型语言模型训练的能耗。这项突破性研究表明,通过优化训练过程中的资源分配,可以在不影响训练速度的前提下,将能耗降低30%。这项技术不仅具有重要的经济效益,还能为环保事业做出巨大贡献,其潜在的节能效果甚至足以满足上百万美国家庭的电力需求。
近日,密歇根大学的一项新研究发现,一种训练大型语言模型的省力方法可以在相同的时间内完成,但能耗可降低30%。这种方法可以节省足够的能源,到2026年为110万美国家庭供电。
研究人员开发了一款名为Perseus 的软件工具,通过识别关键路径,即需要最长时间才能完成的一系列子任务。然后,Perseus 会降低非关键路径上的处理器速度,以便它们都能在同一时间完成工作,从而消除不必要的功耗。
该团队通过训练GPT-3、其他三个大型语言模型和一个计算机视觉模型来测试Perseus。结果表明,Perseus 可以降低AI 训练的能耗,同时保持相同的训练速度。
研究人员表示,这种省力方法对于公平使用人工智能具有重要意义。如果一个国家没有足够的电力来运行大型模型,他们可能需要使用远程服务,或者只能运行较小、准确度较低的模型。这种差距可能会进一步加剧不同社区之间的差距。
该研究表明,通过优化AI 训练方法,可以降低能耗,同时保持相同的训练速度。这对于节省能源和减少碳足迹具有重要意义。
这项研究为人工智能领域的能源效率问题提供了一个有效的解决方案,为更可持续的人工智能发展铺平了道路,也为未来人工智能的公平性和普惠性提供了重要的保障。 Perseus 的应用前景广阔,有望推动人工智能技术的进步和更广泛的应用。