苹果公司近期在大型语言模型(LLM)生成速度方面取得重大突破,其与NVIDIA合作,利用开源技术Recurrent Drafter (ReDrafter)将生成速度提升近三倍。 ReDrafter采用推测解码方法,显着提高了模型训练效率,并与NVIDIA的TensorRT-LLM推理加速框架整合,进一步降低了使用成本和延迟。这一合作不仅提升了开发效率,也为用户提供了更快速的服务体验,标志着苹果在AI领域持续创新的决心和实力。 本文将详细介绍苹果与NVIDIA的合作细节以及ReDrafter技术的优势。
近日,苹果公司在机器学习领域的最新研究显示,他们通过与NVIDIA 的合作,成功将大型语言模型(LLM)的生成速度提高了近三倍。这一进展的关键在于苹果开源的技术“Recurrent Drafter”(ReDrafter),它采用了一种推测解码方法,能够显着提升模型训练的效率。
在过去,创建大型语言模型的过程通常非常耗时和耗资源,企业常常需要购买大量的硬件设备,进而增加了运营成本。 2024年早些时候,苹果发布了ReDrafter,这一技术结合了递归神经网络和动态树关注的方法,能够快速生成和验证标记,较传统的自动回归方法提升了3.5倍的标记生成速度。
本周,苹果进一步宣布,他们与NVIDIA 的合作将ReDrafter 整合进NVIDIA 的TensorRT-LLM 推理加速框架。此举将使得使用NVIDIA GPU 的机器学习开发者能够在生产环境中利用ReDrafter 的加速功能。值得一提的是,虽然高性能的多GPU 服务器通常价格昂贵,但此次合作能够在降低延迟的同时减少所需硬件数量,带来更为经济的解决方案。
在与NVIDIA 进行的基准测试中,使用ReDrafter 的生成效率得到了显着提升,贪婪编码模式下的每秒生成令牌速度提高了2.7倍。这意味着开发者们可以在更短的时间内得到更多的结果,为用户提供更快的服务体验。
苹果公司在确认与NVIDIA 的合作后,也表示他们正在考虑使用亚马逊的Trainium2芯片来提升模型训练效率。预计使用Trainium2进行预训练的效率将比现有的硬件提升50%。
官方博客:https://developer.nvidia.com/blog/nvidia-tensorrt-llm-now-supports-recurrent-drafting-for-optimizing-llm-inference/
划重点:
苹果与NVIDIA 合作,将大型语言模型的生成速度提升近三倍。
开源技术ReDrafter 结合递归神经网络,显着提高模型训练效率。
此次合作有助于降低成本,为机器学习开发者提供更高效的解决方案。
总而言之,苹果与NVIDIA的合作以及ReDrafter技术的应用,为大型语言模型的开发和应用带来了显着的效率提升和成本降低。这不仅推动了人工智能领域的技术进步,也为开发者和用户带来了更便捷、更经济的解决方案,预示着未来AI应用的蓬勃发展。