近期,人工智能领域取得重大进展,UCLA等机构的研究人员成功研发出具身智能大模型MultiPLY,这标志着人工智能向通用人工智能(AGI)迈出了坚实的一步。MultiPLY不仅拥有多模态感知能力,包括触觉、视觉和听觉,更重要的是,它能够与3D环境进行更全面的交互,并在实际应用中展现出强大的能力。这项研究成果及其配套的大规模多感官数据集Multisensory-Universe,为未来人工智能的发展提供了宝贵的资源和新的方向。
近日,UCLA等机构的研究人员推出了具身智能大模型MultiPLY。该模型不仅具备多模态感知能力,包括触觉、视觉、听觉等,使得AI能够更全面地与3D环境进行交互。通过智能体与3D环境交互,MultiPLY在对象检索、工具使用、多感官标注和任务分解等实验中表现出色。此外,研究人员创建了一个大规模多感官数据集Multisensory-Universe,其中包含50万条数据。这一研究为构建具备多感官能力的大模型提供了新思路,为实现AGI提供了新的方向。MultiPLY的出现,不仅证明了多模态感知和具身智能在人工智能发展中的重要性,也为未来构建更智能、更强大的AI系统提供了新的技术路径和数据支撑。相信随着技术的不断进步,类似MultiPLY这样的具身智能大模型将在更多领域发挥作用,为人类社会带来更大的便利和进步。期待未来更多类似的研究成果涌现。