ナム・ヒョンジン* 1 、ダニエル・ソンホ・ジョン* 1 、ムン・ギョンシク2 、イ・ギョンム1
1ソウル大学、 2コーデックアバター研究室、メタ
(*均等貢献)
CONTHO は、人間とオブジェクトの接触を正確な再構築の重要な信号として利用することで、3D の人間とオブジェクトを共同で再構築します。この目的を達成するために、私たちは 2 つのトラックで別々に研究されてきた「3D 人体-物体再構成」と「人体-物体接触推定」という2 つの異なるタスクを 1 つの統一されたフレームワークに統合します。
# Initialize conda environment
conda create -n contho python=3.9
conda activate contho
# Install PyTorch
conda install pytorch==1.10.1 torchvision==0.11.2 torchaudio==0.10.1 cudatoolkit=10.2 -c pytorch
# Install all remaining packages
pip install -r requirements.txt
base_data
準備し、 ${ROOT}/data/base_data
として配置します。 python main/demo.py --gpu 0 --checkpoint {CKPT_PATH}
以下のようなdata
のディレクトリ構造に従う必要があります。
${ROOT}
|-- data
| |-- base_data
| | |-- annotations
| | |-- backbone_models
| | |-- human_models
| | |-- object_models
| |-- BEHAVE
| | |-- dataset.py
| | |-- sequences
| | | |-- Date01_Sub01_backpack_back
| | | |-- Date01_Sub01_backpack_hand
| | | |-- ...
| | | |-- Date07_Sub08_yogamat
| |-- InterCap
| | |-- dataset.py
| | |-- sequences
| | | |-- 01
| | | |-- 02
| | | |-- ...
| | | |-- 10
${ROOT}/data/BEHAVE/sequences
にダウンロードします。 scripts/download_behave.sh
${ROOT}/data/InterCap/sequences
にダウンロードします。 scripts/download_intercap.sh
BEHAVE または InterCap データセットで CONTHO をトレーニングするには、次を実行してください。
python main/train.py --gpu 0 --dataset {DATASET}
BEHAVE または InterCap データセットで CONTHO を評価するには、次を実行してください。
python main/test.py --gpu 0 --dataset {DATASET} --checkpoint {CKPT_PATH}
ここではCONTHOの実績を報告します。
CONTHO は、高速かつ正確な3D 人間とオブジェクトの再構築フレームワークです。
-
演算子はサポートされていません。マスクを反転しようとしている場合は、代わりに~
またはlogical_not()
演算子を使用してください。リファレンスを確認してください。感謝します:
@inproceedings{nam2024contho,
title = {Joint Reconstruction of 3D Human and Object via Contact-Based Refinement Transformer},
author = {Nam, Hyeongjin and Jung, Daniel Sungho and Moon, Gyeongsik and Lee, Kyoung Mu},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition},
year = {2024}
}