Zhipu AI a lancé un nouveau grand modèle d'IA lors de l'événement OpenDay - Ying. Ce modèle possède de puissantes capacités vidéo de génération de texte et peut générer des vidéos haute définition en 30 secondes. Les utilisateurs n'ont qu'à saisir des commandes de texte et sélectionner le style souhaité pour créer facilement du contenu vidéo de haute qualité. Qingying a été lancé sur l'application Qingyan et a ouvert une interface API pour faciliter l'utilisation des entreprises et des développeurs. Sa technologie de base, CogVideoX, intègre les trois dimensions du texte, du temps et de l'espace, augmentant la vitesse d'inférence de 6 fois par rapport à la génération précédente. À l'avenir, elle prendra en charge une résolution plus élevée et une génération vidéo plus longue.
En plus des vidéos générées par du texte, Qingying prend également en charge les vidéos générées par des images et a lancé l'applet « Photo Animation » pour offrir aux utilisateurs une variété de scénarios d'application tels que la production d'émoticônes, la création de publicités et la création d'intrigues. Qingying adopte une nouvelle architecture de modèle DiT, qui améliore non seulement l'efficacité de la génération vidéo, mais améliore également considérablement la capacité à comprendre et à exécuter des instructions complexes. Zhang Peng, PDG de Zhipu AI, a déclaré que Qingying continuera de s'améliorer pour offrir aux utilisateurs une expérience de création vidéo IA plus pratique et plus puissante.
L'API Qingying a également été lancée sur la plate-forme ouverte de grands modèles bigmodel.cn. Les entreprises et les développeurs peuvent utiliser les capacités de modèle de Wensheng Video et Tusheng Video en appelant l'API. Qingying adopte une nouvelle architecture de modèle DiT pour compresser les informations vidéo plus efficacement, intégrer pleinement le contenu texte et vidéo et améliorer les capacités de conformité des commandes complexes, la cohérence du contenu et la planification des images.
Zhang Peng, PDG de Zhipu AI, a mentionné lors de l'événement que le modèle de génération vidéo de la base Qingying est CogVideoX, qui intègre les trois dimensions du texte, du temps et de l'espace, et fait référence à la conception de l'algorithme de Sora. CogVideoX a amélioré sa vitesse d'inférence de 6 fois par rapport à la génération précédente et lancera à l'avenir des fonctions de génération vidéo avec une résolution plus élevée et une durée plus longue.
Les utilisateurs peuvent directement découvrir Qingying via « Qingying Intelligent » sur le PC/APP Zhipu Qingyan et transformer l'inspiration de leur cerveau en création vidéo artistique.
Adresse d'expérience : https://top.aibase.com/tool/qingying-ai-shipinshengchengfuwu
Le lancement de Qingying marque un progrès significatif dans la technologie de génération vidéo IA. Son fonctionnement pratique et ses fonctions puissantes offrent aux utilisateurs une nouvelle expérience de création vidéo et offrent aux entreprises et aux développeurs des perspectives d'application plus larges. Nous attendons avec impatience que Qingying apporte des fonctions et des applications plus surprenantes à l'avenir.