南亨鎮* 1 、鄭丹尼爾·成浩* 1 、文慶植2 、李慶武1
1首爾國立大學, 2編解碼器化身實驗室,Meta
(*同等貢獻)
CONTHO利用人與物體的接觸作為精確重建的關鍵訊號,共同重建3D 人與物體。為此,我們將「3D人-物體重建」和「人-物體接觸估計」這兩個分別在兩個軌道上研究的不同任務整合到一個統一的框架中。
# Initialize conda environment
conda create -n contho python=3.9
conda activate contho
# Install PyTorch
conda install pytorch==1.10.1 torchvision==0.11.2 torchaudio==0.10.1 cudatoolkit=10.2 -c pytorch
# Install all remaining packages
pip install -r requirements.txt
base_data
,並將其放置為${ROOT}/data/base_data
。 python main/demo.py --gpu 0 --checkpoint {CKPT_PATH}
您需要遵循以下data
的目錄結構。
${ROOT}
|-- data
| |-- base_data
| | |-- annotations
| | |-- backbone_models
| | |-- human_models
| | |-- object_models
| |-- BEHAVE
| | |-- dataset.py
| | |-- sequences
| | | |-- Date01_Sub01_backpack_back
| | | |-- Date01_Sub01_backpack_hand
| | | |-- ...
| | | |-- Date07_Sub08_yogamat
| |-- InterCap
| | |-- dataset.py
| | |-- sequences
| | | |-- 01
| | | |-- 02
| | | |-- ...
| | | |-- 10
${ROOT}/data/BEHAVE/sequences
。 scripts/download_behave.sh
${ROOT}/data/InterCap/sequences
。 scripts/download_intercap.sh
若要在 BEHAVE 或 InterCap 資料集上訓練 CONTHO,請執行
python main/train.py --gpu 0 --dataset {DATASET}
若要在 BEHAVE 或 InterCap 資料集上評估 CONTHO,請執行
python main/test.py --gpu 0 --dataset {DATASET} --checkpoint {CKPT_PATH}
在這裡,我們報告 CONTHO 的性能。
CONTHO是一個快速、準確的3D人體和物體重建框架!
-
運算符。如果您嘗試反轉掩碼,請改用~
或logical_not()
運算子:請檢查參考。我們感謝:
@inproceedings{nam2024contho,
title = {Joint Reconstruction of 3D Human and Object via Contact-Based Refinement Transformer},
author = {Nam, Hyeongjin and Jung, Daniel Sungho and Moon, Gyeongsik and Lee, Kyoung Mu},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition},
year = {2024}
}