Downcodes小编获悉,密歇根大学的研究人员开发了一种名为Perseus的软件工具,能够显著降低大型语言模型训练的能耗。这项突破性的研究成果为人工智能的可持续发展提供了新的方向,并有望解决人工智能训练对能源消耗日益增长的担忧。Perseus通过识别并优化关键路径,在保证训练速度不变的情况下,将能耗降低了30%,这对于环境保护和资源利用都具有重要意义。
研究人员开发了一款名为 Perseus 的软件工具,通过识别关键路径,即需要最长时间才能完成的一系列子任务。然后,Perseus 会降低非关键路径上的处理器速度,以便它们都能在同一时间完成工作,从而消除不必要的功耗。
该团队通过训练 GPT-3、其他三个大型语言模型和一个计算机视觉模型来测试 Perseus。结果表明,Perseus 可以降低 AI 训练的能耗,同时保持相同的训练速度。
研究人员表示,这种省力方法对于公平使用人工智能具有重要意义。如果一个国家没有足够的电力来运行大型模型,他们可能需要使用远程服务,或者只能运行较小、准确度较低的模型。这种差距可能会进一步加剧不同社区之间的差距。
该研究表明,通过优化 AI 训练方法,可以降低能耗,同时保持相同的训练速度。这对于节省能源和减少碳足迹具有重要意义。
Perseus的出现为AI领域的可持续发展带来了新的希望,其高效的能耗控制策略不仅能节省大量的能源,还能促进AI技术的公平与普惠,为全球AI发展贡献力量。这项研究成果值得我们关注和深入研究,相信未来会有更多类似的技术出现,推动AI产业走向更加绿色环保的未来。