Hyeongjin Nam* 1 , Daniel Sungho Jung* 1 , Gyeongsik Moon 2 , Kyoung Mu Lee 1
1 Universidad Nacional de Seúl , 2 Laboratorio de avatares de códec, Meta
(*Igual contribución)
CONTHO reconstruye conjuntamente seres humanos y objetos en 3D aprovechando el contacto entre humanos y objetos como señal clave para una reconstrucción precisa. Con este fin, integramos la "reconstrucción 3D de objetos humanos" y la "estimación de contacto entre humanos y objetos" , las dos tareas diferentes que se han estudiado por separado en dos pistas, con un marco unificado.
# Initialize conda environment
conda create -n contho python=3.9
conda activate contho
# Install PyTorch
conda install pytorch==1.10.1 torchvision==0.11.2 torchaudio==0.10.1 cudatoolkit=10.2 -c pytorch
# Install all remaining packages
pip install -r requirements.txt
base_data
de Google Drive o Onedrive y colóquelo como ${ROOT}/data/base_data
. python main/demo.py --gpu 0 --checkpoint {CKPT_PATH}
Debe seguir la estructura de directorios de los data
como se muestra a continuación.
${ROOT}
|-- data
| |-- base_data
| | |-- annotations
| | |-- backbone_models
| | |-- human_models
| | |-- object_models
| |-- BEHAVE
| | |-- dataset.py
| | |-- sequences
| | | |-- Date01_Sub01_backpack_back
| | | |-- Date01_Sub01_backpack_hand
| | | |-- ...
| | | |-- Date07_Sub08_yogamat
| |-- InterCap
| | |-- dataset.py
| | |-- sequences
| | | |-- 01
| | | |-- 02
| | | |-- ...
| | | |-- 10
${ROOT}/data/BEHAVE/sequences
. scripts/download_behave.sh
${ROOT}/data/InterCap/sequences
. scripts/download_intercap.sh
Para entrenar CONTHO en el conjunto de datos BEHAVE o InterCap, ejecute
python main/train.py --gpu 0 --dataset {DATASET}
Para evaluar CONTHO en el conjunto de datos BEHAVE o InterCap, ejecute
python main/test.py --gpu 0 --dataset {DATASET} --checkpoint {CKPT_PATH}
Aquí informamos el desempeño de CONTHO.
¡CONTHO es un marco de reconstrucción de objetos y personas en 3D rápido y preciso !
-
, con un tensor bool. Si está intentando invertir una máscara, utilice el operador ~
o logical_not()
en su lugar: consulte la referencia.Agradecemos:
@inproceedings{nam2024contho,
title = {Joint Reconstruction of 3D Human and Object via Contact-Based Refinement Transformer},
author = {Nam, Hyeongjin and Jung, Daniel Sungho and Moon, Gyeongsik and Lee, Kyoung Mu},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition},
year = {2024}
}