Adobe a publié un nouveau modèle vidéo ActAnywhere, un outil d'IA capable de générer des arrière-plans vidéo basés sur le mouvement et l'apparence des sujets de premier plan, visant à fournir une solution de création plus pratique et plus efficace pour la production de films et d'effets visuels. La technologie de base d'ActAnywhere réside dans son mécanisme innovant de raisonnement du temps d'attention inter-images et dans son architecture 3D U-Net, qui peuvent rapidement intégrer la créativité des utilisateurs dans des scènes virtuelles dynamiques et générer des effets d'interaction de premier plan et d'arrière-plan très réalistes, y compris les mouvements de caméra et la lumière et l'ombre. effets, etc Ce modèle simplifie le processus complexe de production vidéo et améliore considérablement l'efficacité du travail.
Adobe a publié aujourd'hui un nouveau modèle vidéo ActAnywhere. Ce modèle peut générer des arrière-plans vidéo pour la communauté du cinéma et des effets visuels en fonction du mouvement et de l'apparence des sujets au premier plan. Il introduit une attention multi-images pour le raisonnement temporel, permettant aux utilisateurs d'intégrer rapidement leurs idées créatives dans des scènes virtuelles dynamiques. La clé est que son U-Net 3D prend en entrée une série de segmentations et de masques de sujets au premier plan et est conditionné par des images décrivant l'arrière-plan. De plus, le modèle est capable de générer des vidéos avec des interactions de premier plan et d’arrière-plan, des mouvements de caméra et des effets d’ombre et de lumière très réalistes.La sortie du modèle ActAnywhere marque une étape importante pour Adobe dans le domaine de la production vidéo basée sur l'IA, fournissant aux créateurs de contenu de nouveaux outils puissants et favorisant davantage le développement innovant de l'industrie des effets spéciaux pour le cinéma et la télévision. Son utilisation pratique et ses fonctions puissantes devraient à l'avenir devenir un outil standard dans le domaine de la production vidéo.