Этот репозиторий содержит авторскую реализацию статьи в Pytorch:
Сверточная нейронная сеть формы отношений для анализа облака точек [arXiv] [CVF]
Юнчэн Лю, Бинь Фан, Шимин Сян и Чунхун Пан
CVPR 2019 — финалист устной и лучшей статьи. Страница проекта : https://yochengliu.github.io/Relation-Shape-CNN/
Если наша статья полезна для вашего исследования, пожалуйста, рассмотрите возможность цитирования:
@inproceedings { liu2019rscnn ,
author = { Yongcheng Liu and
Bin Fan and
Shiming Xiang and
Chunhong Pan } ,
title = { Relation-Shape Convolutional Neural Network for Point Cloud Analysis } ,
booktitle = { IEEE Conference on Computer Vision and Pattern Recognition (CVPR) } ,
pages = { 8895--8904 } ,
year = { 2019 }
}
git clone https://github.com/Yochengliu/Relation-Shape-CNN.git
cd Relation-Shape-CNN
Классификация форм
Загрузите и разархивируйте ModelNet40 (415M). Замените $data_root$
в cfgs/config_*_cls.yaml
родительским путем набора данных.
Сегментация деталей ShapeNet
Загрузите и разархивируйте часть ShapeNet (674M). Замените $data_root$
в cfgs/config_*_partseg.yaml
на путь к набору данных.
sh train_cls.sh
Вы можете изменить relation_prior
в cfgs/config_*_cls.yaml
. Мы обучили модель классификации одномасштабного окружения в папке cls
, точность которой составляет 92,38%.
sh train_partseg.sh
Мы обучили модель сегментации частей Multi-Scale-Neighborhood в папке seg
, класс mIoU и экземпляр mIoU которой составляют 84,18% и 85,81% соответственно.
Voting script: voting_evaluate_cls.py
Вы можете использовать нашу модель cls/model_cls_ssn_iter_16218_acc_0.923825.pth
в качестве контрольной точки в config_ssn_cls.yaml
, и после этого голосования вы получите точность 92,71%, если все пойдет правильно.
Voting script: voting_evaluate_partseg.py
Вы можете использовать нашу модель seg/model_seg_msn_iter_57585_ins_0.858054_cls_0.841787.pth
в качестве контрольной точки в config_msn_partseg.yaml
.
Код выпущен под лицензией MIT (подробности см. в файле LICENSE).
Код во многом заимствован из Pointnet2_PyTorch.
Если у вас есть идеи или вопросы о нашем исследовании, которыми вы хотите поделиться с нами, свяжитесь с нами по адресу [email protected].