英伟达近日发布了其最新的通用大模型Nemotron-4,该模型参数量达到150亿,在多语言和编码任务中表现出色。 Nemotron-4 采用Chinchilla模型的缩放定律,在优化计算预算、数据和模型大小方面取得了突破,性能超越了同等规模的其他模型,堪称目前最强大的通用语言模型之一。其目标是能够在单块A100或H100 GPU上运行,为大模型的运行效率树立了新的标杆。 这标志着在追求高效能大模型方面取得了显着进展。
英伟达发布了通用大模型Nemotron-4,参数达到150 亿,在多语言和编码任务中表现优异。模型采用Chinchilla 模型的缩放定律,优化计算预算、数据和模型大小,超越同等参数规模模型,成为最强通用语言模型。 Nemotron-4 的目标是在单个A100 或H100GPU 上运行,为大模型领域设定新标准。
Nemotron-4的发布不仅提升了大模型的性能,更重要的是其在单GPU运行的目标,降低了大模型的使用门槛,为更多开发者和研究者提供了便利,预示着大模型应用的进一步普及。 英伟达此举对推动人工智能技术发展具有重大意义。