Downcodes小编报道:智谱技术团队今日重磅开源CogVideoX v1.5视频生成模型,这是继8月份以来该系列的又一次重大升级。新版本在视频生成能力上取得显着突破,支持更长视频、更高分辨率和更流畅的帧率,并与新推出的CogSound音效模型结合,打造“新清影”平台,为用户提供更优质的视频创作体验。此次更新不仅提升了视频质量,还增强了模型对复杂语义的理解能力,为开发者提供了更强大的工具。
据了解,此次更新大幅提升了视频生成能力,包括支持5秒和10秒的视频长度、768P 的分辨率以及16帧的生成能力。同时,I2V(图像到视频)模型也支持任意尺寸比例,进一步增强了复杂语义的理解能力。
CogVideoX v1.5包含两个主要模型:CogVideoX v1.5-5B 和CogVideoX v1.5-5B-I2V,旨在为开发者提供更强大的视频生成工具。
更值得关注的是,CogVideoX v1.5将同步上线至清影平台,并与新推出的CogSound 音效模型结合,成为“新清影” 。新清影将提供多项特色服务,包括视频质量的显着提升、美学表现和运动合理性,支持生成10秒、4K、60帧的超高清视频。
官方介绍如下:
质量提升:在图生视频的质量、美学表现、运动合理性以及复杂提示词语义理解方面能力显着增强。
超高清分辨率:支持生成10s、4K、60帧超高清视频。
可变比例:支持任意比例,从而适应不同的播放场景。
多通道输出:同一指令/图片可以一次性生成4个视频。
带声效的AI 视频:新清影可以生成与画面匹配的音效。
在数据处理方面,CogVideoX 团队专注于提升数据质量,开发了自动化筛选框架以过滤不良视频数据,并推出了端到端的视频理解模型CogVLM2-caption,以生成精准的内容描述。这一模型能够有效处理复杂的指令,确保生成的视频与用户需求相符。
为了提升内容连贯性,CogVideoX 采用了高效的三维变分自编码器(3D VAE)技术,显着降低了训练成本与难度。此外,团队还研发了融合文本、时间和空间三维度的Transformer 架构,通过去除传统的跨注意力模块,增强了文本和视频的交互效果,提升了视频生成的质量。
未来,智谱技术团队将继续扩大数据量和模型规模,探索更高效的模型架构,以实现更优质的视频生成体验。 CogVideoX v1.5的开源不仅为开发者提供了强大的工具,也为视频创作领域注入了新的活力。
代码:https://github.com/thudm/cogvideo
模型:https://huggingface.co/THUDM/CogVideoX1.5-5B-SAT
划重点:
新版CogVideoX v1.5开源,支持5/10秒视频、768P 分辨率和16帧生成能力。
新清影平台上线,结合CogSound 音效模型,提供超高清4K 视频生成。
数据处理与算法创新,确保生成视频的质量和连贯性。
总而言之,CogVideoX v1.5 的开源和新清影平台的上线,标志着AI 视频生成技术迈出了重要一步,为开发者和创作者带来了更强大的工具和更广阔的创作空间。我们期待未来看到更多基于CogVideoX 的精彩应用。