Media2Face คือโมเดลการสร้างแอนิเมชั่นใบหน้า 3 มิติหลายรูปแบบที่ล้ำสมัย ซึ่งสามารถสร้างแอนิเมชั่นการแสดงออกทางสีหน้าที่สมจริงโดยอาศัยอินพุตหลายรูปแบบ เช่น คำพูด แบบจำลองนี้สร้างชุดข้อมูลขนาดใหญ่ชื่อ M2F-D โดยการแนะนำ Generalized Neural Parameterized Facial Assets (GNPFA) และใช้เพื่อดึงข้อมูลการแสดงออกและท่าทางศีรษะคุณภาพสูงจากข้อมูลวิดีโอขนาดใหญ่ ในที่สุด ทีมวิจัยได้เสนอโมเดลการแพร่กระจาย Media2Face โดยอิงตามพื้นที่แฝงของ GNPFA ทำให้เกิดการสร้างแอนิเมชั่นบนใบหน้าในภาษาร่วมคุณภาพสูง และก้าวไปสู่ระดับใหม่ในแง่ของความเที่ยงตรงและการแสดงออก ช่วยให้ผู้ใช้ปรับแต่งภาพเคลื่อนไหวที่สร้างขึ้น เช่น การปรับความโกรธ ความสุข และการแสดงออกทางอารมณ์อื่นๆ
Media2Face เป็นรุ่นผลิตภัณฑ์ที่รองรับเสียงและคำแนะนำหลายรูปแบบอื่นๆ เพื่อสร้างการแสดงออกทางสีหน้าแบบ 3 มิติแบบไดนามิก ด้วยการปรับเปลี่ยนแอนิเมชั่นใบหน้าที่สร้างขึ้นแบบเฉพาะบุคคลโดยละเอียดยิ่งขึ้น ยังช่วยให้ผู้ใช้สามารถปรับแอนิเมชั่นบนใบหน้าที่สร้างขึ้นแบบละเอียดยิ่งขึ้น เช่น ความโกรธ ความสุข ฯลฯ ทีมวิจัยตอบสนองต่อความท้าทายผ่านสามขั้นตอนสำคัญ ขั้นแรกแนะนำลักษณะใบหน้าที่กำหนดพารามิเตอร์ของระบบประสาททั่วไป จากนั้นใช้ GNPFA เพื่อแยกสีหน้าคุณภาพสูงและท่าโพสศีรษะที่แม่นยำจากวิดีโอจำนวนมากเพื่อสร้างชุดข้อมูล M2F-D และในที่สุดก็นำเสนอ Media2Face ซึ่งเป็นโมเดลการแพร่กระจายตามอวกาศแฝง GNPFA สำหรับการสร้างแอนิเมชั่นบนใบหน้าโดยใช้ภาษาร่วม โดยรวมแล้ว Media2Face ได้รับผลลัพธ์ที่น่าประทับใจในด้านแอนิเมชั่นบนใบหน้าที่ใช้ภาษาร่วม ซึ่งเปิดโอกาสใหม่ๆ สำหรับการสังเคราะห์แอนิเมชั่นบนใบหน้าที่มีความเที่ยงตรงและแสดงออกได้ชัดเจนการเกิดขึ้นของโมเดล Media2Face ได้นำความก้าวหน้าทางเทคโนโลยีมาสู่การผลิตแอนิเมชั่น 3 มิติ ความเป็นจริงเสมือน และการโต้ตอบระหว่างมนุษย์กับคอมพิวเตอร์ . เทคโนโลยีนี้มีสถานการณ์การใช้งานที่หลากหลายในอนาคต และสมควรได้รับความสนใจอย่างต่อเนื่องในการพัฒนา