ฮยอนจิน นัม* 1 , แดเนียล ซองโฮ จุง* 1 , กยองซิก มูน 2 , คยอง มู ลี 1
1 มหาวิทยาลัยแห่งชาติโซล , 2 Codec Avatars Lab, Meta
(*ผลงานที่เท่าเทียมกัน)
CONTHO ร่วมกันสร้าง มนุษย์และวัตถุ 3 มิติ ขึ้นใหม่โดยใช้ประโยชน์จากการสัมผัสระหว่างมนุษย์กับวัตถุเป็นสัญญาณสำคัญในการสร้างใหม่ที่แม่นยำ ด้วยเหตุนี้ เราจึงผสมผสาน "การสร้างวัตถุมนุษย์และวัตถุสามมิติขึ้นใหม่" และ "การประมาณค่าการสัมผัสระหว่างมนุษย์กับวัตถุ" ซึ่งเป็นงานที่แตกต่างกันสองงานที่ได้รับการศึกษาแยกกันในสองเส้นทาง ด้วยกรอบงานที่เป็นหนึ่งเดียว
# Initialize conda environment
conda create -n contho python=3.9
conda activate contho
# Install PyTorch
conda install pytorch==1.10.1 torchvision==0.11.2 torchaudio==0.10.1 cudatoolkit=10.2 -c pytorch
# Install all remaining packages
pip install -r requirements.txt
base_data
จาก Google Drive หรือ Onedrive และวางไว้เป็น ${ROOT}/data/base_data
python main/demo.py --gpu 0 --checkpoint {CKPT_PATH}
คุณต้องปฏิบัติตามโครงสร้างไดเร็กทอรีของ data
ดังต่อไปนี้
${ROOT}
|-- data
| |-- base_data
| | |-- annotations
| | |-- backbone_models
| | |-- human_models
| | |-- object_models
| |-- BEHAVE
| | |-- dataset.py
| | |-- sequences
| | | |-- Date01_Sub01_backpack_back
| | | |-- Date01_Sub01_backpack_hand
| | | |-- ...
| | | |-- Date07_Sub08_yogamat
| |-- InterCap
| | |-- dataset.py
| | |-- sequences
| | | |-- 01
| | | |-- 02
| | | |-- ...
| | | |-- 10
${ROOT}/data/BEHAVE/sequences
scripts/download_behave.sh
${ROOT}/data/InterCap/sequences
scripts/download_intercap.sh
หากต้องการฝึก CONTHO บนชุดข้อมูล BEHAVE หรือ InterCap โปรดเรียกใช้
python main/train.py --gpu 0 --dataset {DATASET}
หากต้องการประเมิน CONTHO บนชุดข้อมูล BEHAVE หรือ InterCap โปรดเรียกใช้
python main/test.py --gpu 0 --dataset {DATASET} --checkpoint {CKPT_PATH}
ที่นี่ เรารายงานประสิทธิภาพของ CONTHO
CONTHO เป็นเฟรมเวิร์กการสร้างมนุษย์และวัตถุ 3 มิติ ที่รวดเร็ว และ แม่นยำ !
-
ที่มีบูลเทนเซอร์ หากคุณกำลังพยายามกลับด้านมาสก์ ให้ใช้โอเปอเรเตอร์ ~
หรือ logical_not()
แทน: โปรดตรวจสอบข้อมูลอ้างอิงเราขอขอบคุณ:
@inproceedings{nam2024contho,
title = {Joint Reconstruction of 3D Human and Object via Contact-Based Refinement Transformer},
author = {Nam, Hyeongjin and Jung, Daniel Sungho and Moon, Gyeongsik and Lee, Kyoung Mu},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition},
year = {2024}
}