Forscher der University of California in Berkeley haben ein neues Framework namens 3DHM entwickelt, das atemberaubende Videobewegungsimitationseffekte ermöglicht. Mit nur einem Bild kann 3DHM jede Bewegung der Charaktere im Video, einschließlich der Details ihrer Kleidung, genau simulieren und sie in einer 360-Grad-Ansicht ohne tote Winkel darstellen. Diese Technologie erfordert keine Anmerkungsdaten und wird durch die Simulation von Texturkarten zur Synthese menschlicher 3D-Bewegungen und -Renderings implementiert. Sie eignet sich besonders gut für die Generierung schwieriger Posen und stellt Videobilder letztendlich mit extrem hoher Wiedergabetreue dar.
Forscher der University of California in Berkeley haben kürzlich ein Framework namens 3DHM veröffentlicht, das es einem Bild ermöglicht, jede Videoaktion, einschließlich der Kleidung im Video, zu imitieren, um 360-Grad-Bewegungen ohne tote Winkel zu erreichen. Ohne die Notwendigkeit, Daten mit Anmerkungen zu versehen, imitiert das 3DHM-Framework die Aktionen von Schauspielern in Videos, indem es Texturkarten simuliert, um menschliche 3D-Bewegungen und -Renderings zu synthetisieren. Es ist flexibler bei der Generierung schwieriger Posen und bietet einen realistischeren Videobild-Rendering-Effekt.
Das Aufkommen des 3DHM-Frameworks stellt einen wichtigen Durchbruch im Bereich der Bild- und Videoverarbeitung dar. Seine Anwendungsaussichten in Film- und Fernsehspezialeffekten, virtueller Realität und anderen Bereichen sind sehr breit gefächert, und es lohnt sich, auf weitere technologische Innovationen und Anwendungen gespannt zu sein in der Zukunft.