남형진* 1 , 정성호 다니엘* 1 , 문경식 2 , 이경무 1
1 서울대학교 , 2 Codec Avatars Lab, Meta
(*동등기여)
CONTHO는 정확한 재구성의 핵심 신호로 인간-객체 접촉을 활용하여 3D 인간과 객체를 공동으로 재구성합니다. 이를 위해 우리는 두 개의 트랙에서 별도로 연구된 두 가지 다른 작업 인 "3D 인간-객체 재구성" 과 "인간-객체 접촉 추정"을 하나의 통일된 프레임워크로 통합합니다.
# Initialize conda environment
conda create -n contho python=3.9
conda activate contho
# Install PyTorch
conda install pytorch==1.10.1 torchvision==0.11.2 torchaudio==0.10.1 cudatoolkit=10.2 -c pytorch
# Install all remaining packages
pip install -r requirements.txt
base_data
준비하고 ${ROOT}/data/base_data
에 배치합니다. python main/demo.py --gpu 0 --checkpoint {CKPT_PATH}
아래와 같은 data
디렉토리 구조를 따라야 합니다.
${ROOT}
|-- data
| |-- base_data
| | |-- annotations
| | |-- backbone_models
| | |-- human_models
| | |-- object_models
| |-- BEHAVE
| | |-- dataset.py
| | |-- sequences
| | | |-- Date01_Sub01_backpack_back
| | | |-- Date01_Sub01_backpack_hand
| | | |-- ...
| | | |-- Date07_Sub08_yogamat
| |-- InterCap
| | |-- dataset.py
| | |-- sequences
| | | |-- 01
| | | |-- 02
| | | |-- ...
| | | |-- 10
${ROOT}/data/BEHAVE/sequences
에 다운로드합니다. scripts/download_behave.sh
${ROOT}/data/InterCap/sequences
로 다운로드합니다. scripts/download_intercap.sh
BEHAVE 또는 InterCap 데이터세트에서 CONTHO를 교육하려면 다음을 실행하세요.
python main/train.py --gpu 0 --dataset {DATASET}
BEHAVE 또는 InterCap 데이터세트에서 CONTHO를 평가하려면 다음을 실행하세요.
python main/test.py --gpu 0 --dataset {DATASET} --checkpoint {CKPT_PATH}
CONTHO의 성능을 보고합니다.
CONTHO는 빠르고 정확한 3D 인간 및 객체 재구성 프레임워크입니다!
-
연산자는 지원되지 않습니다. 마스크를 반전시키려는 경우 ~
또는 logical_not()
연산자를 대신 사용하십시오. 참조를 확인하십시오.감사합니다:
@inproceedings{nam2024contho,
title = {Joint Reconstruction of 3D Human and Object via Contact-Based Refinement Transformer},
author = {Nam, Hyeongjin and Jung, Daniel Sungho and Moon, Gyeongsik and Lee, Kyoung Mu},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition},
year = {2024}
}