北京大学、南洋理工大学S-Lab和上海人工智能实验室联合推出的新型大型多视角高斯模型(LGM),在3D建模领域取得了显着突破。该模型的核心模块LargeMulti-ViewGaussianModel,能够在短短5秒内,仅凭单一视角图片或文本,生成高质量的3D物体模型。这项技术突破了高效3D表征和高分辨率生成网络的瓶颈,实现了Text-to-3D和Image-to-3D任务,并提供Mesh转换方法,为未来的3D建模技术发展提供了新的方向。
北京大学、南洋理工大学S-Lab和上海人工智能实验室联合研究的团队推出的大型多视角高斯模型(LGM),通过核心模块LargeMulti-ViewGaussianModel,在5秒内从单一视角图片或文本生成高质量3D物体。 LGM解决了高效3D表征和高分辨率下的生成网络挑战,支持Text-to-3D和Image-to-3D任务,并提供Mesh转换方法,带来显着进展。
LGM的快速生成速度和高质量输出,为3D建模技术带来了革命性的变化,其应用前景广阔,有望在游戏开发、虚拟现实、建筑设计等领域发挥重要作用。 未来,随着技术的不断完善,LGM有望进一步提高效率和精度,为用户提供更加便捷和高效的3D建模体验。