Cyan Puppets Technology est sur le point de publier la version 1.50 de Cyanpuppets, qui est une mise à jour historique. Cette version utilise le plus grand ensemble de données d'entraînement à ce jour et est plus polyvalente, permettant aux utilisateurs de créer rapidement du contenu de danse 3D en temps réel en utilisant seulement deux webcams. La technologie de base de cette version est basée sur des algorithmes de réseau neuronal convolutif et de réseau neuronal profond. Grâce à l'architecture de modèle d'IA auto-développée, elle réalise la collaboration entre le monde virtuel et réel, offrant aux utilisateurs une expérience de production d'animation 3D pratique.
La dernière version 1.50 du modèle d'algorithme d'animation 3D de génération vidéo 2D Cyanpuppets sera publiée ce vendredi. Cette version possède le plus grand ensemble de données d'entraînement à ce jour et est la plus polyvalente, permettant aux utilisateurs de créer rapidement du contenu de danse 3D en temps réel avec seulement deux webcams. Cyanpuppets est fourni par Cyan Puppet Technology. Il utilise des algorithmes de réseau neuronal convolutif et de réseau neuronal profond comme base pour créer une architecture de modèle d'IA auto-développée afin de réaliser une collaboration entre le monde virtuel et réel. Leur plate-forme CYAN.AI combine la puissance de calcul du GPU NVIDIA pour générer des données de mouvement 3D à partir de vidéos 2D, offrant aux utilisateurs une technologie de capture de mouvement sans usure, une technologie d'interaction sociale virtuelle avec tout le corps, des outils de production d'animation 3D, etc.
La sortie de la version 1.50 de Cyanpuppets marque que la technologie Cyanpuppets a fait des progrès significatifs dans le domaine de la production d'animation 3D basée sur l'IA. Sa commodité et son efficacité apporteront aux utilisateurs une nouvelle expérience créative qui mérite d'être attendue.