Adobe发布了全新的视频模型ActAnywhere,这是一款能够根据前景主体的运动和外观生成视频背景的AI工具,旨在为电影和视觉特效制作提供更便捷高效的创作方案。ActAnywhere的核心技术在于其创新的跨帧注意力时间推理机制以及3D U-Net架构,能够快速将用户创意融入动态虚拟场景中,并生成具有高度真实感的前景与背景互动效果,包括相机运动和光影效果等。该模型简化了复杂视频制作流程,极大提升了工作效率。
Adobe今日发布了全新的视频模型ActAnywhere。该模型能根据前景主体的运动和外观为电影和视觉特效社区生成视频背景。其引入跨帧注意力进行时间推理,使用户的创意想法快速地融入动态的虚拟场景中。关键在于其3D U-Net采用一系列前景主体分割以及蒙版作为输入,并以描述背景的帧作为条件。此外,该模型能够生成具有高度真实感的前景与背景互动、相机运动、光影效果的视频。ActAnywhere模型的发布,标志着Adobe在AI驱动视频制作领域迈出了重要一步,为内容创作者提供了强大的新工具,进一步推动了影视特效行业的创新发展。 其便捷的操作性和强大的功能,有望成为未来视频制作领域的标配工具。