Diese Arbeit stellt ein neuartiges datengesteuertes Bewegungszwischensystem vor, um Zielpositionen von Charakteren zu erreichen, indem es Phasenvariablen nutzt, die von einem periodischen Autoencoder gelernt wurden. Der Ansatz nutzt ein neuronales Netzwerkmodell mit mehreren Experten, bei dem die Phasen räumliche und zeitliche Bewegungen mit unterschiedlichen Expertengewichten gruppieren. Jeder generierte Gewichtssatz erzeugt dann eine Folge von Posen auf autoregressive Weise zwischen dem aktuellen und dem Zielzustand des Charakters. Darüber hinaus wird ein erlerntes bidirektionales Steuerungsschema implementiert, um Posen zu erfüllen, die von den Animatoren manuell geändert werden oder bei denen bestimmte Endeffektoren als von der Animation zu erreichende Einschränkungen dienen. Die Verwendung von Bewegungsphasen zwischen Aufgaben schärft die interpolierten Bewegungen und stabilisiert darüber hinaus den Lernprozess. Darüber hinaus können anspruchsvollere Bewegungen über das Fortbewegungsverhalten hinaus synthetisiert werden. Darüber hinaus ist die Stilkontrolle zwischen bestimmten Ziel-Keyframes aktiviert. Das Framework kann hinsichtlich der Bewegungsqualität und Generalisierung mit modernsten Methoden für die Bewegung dazwischen konkurrieren, insbesondere bei langen Übergangsdauern. Dieses Framework trägt zu schnelleren Prototyping-Workflows zur Erstellung animierter Charaktersequenzen bei, was für die Spiele- und Filmindustrie von enormem Interesse ist.
- Video - Papier - Code, Demo & Tool - ReadMe
Dieses Projekt dient nur Forschungs- oder Bildungszwecken und ist nicht für die kommerzielle Nutzung oder Weiterverbreitung frei verfügbar. Die Motion-Capture-Daten und das 3D-Charaktermodell von ubisoft-laforge sind nur unter den Bedingungen der Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International Public License verfügbar.