Este repositorio contiene la implementación del autor en Pytorch para el artículo:
Red neuronal convolucional de forma relacional para análisis de nubes de puntos [arXiv] [CVF]
Yongcheng Liu, Bin Fan, Shiming Xiang y Chunhong Pan
Página del proyecto finalista del mejor artículo y oral de CVPR 2019 : https://yochengliu.github.io/Relation-Shape-CNN/
Si nuestro artículo es útil para su investigación, considere citar:
@inproceedings { liu2019rscnn ,
author = { Yongcheng Liu and
Bin Fan and
Shiming Xiang and
Chunhong Pan } ,
title = { Relation-Shape Convolutional Neural Network for Point Cloud Analysis } ,
booktitle = { IEEE Conference on Computer Vision and Pattern Recognition (CVPR) } ,
pages = { 8895--8904 } ,
year = { 2019 }
}
git clone https://github.com/Yochengliu/Relation-Shape-CNN.git
cd Relation-Shape-CNN
Clasificación de formas
Descargue y descomprima ModelNet40 (415M). Reemplace $data_root$
en cfgs/config_*_cls.yaml
con la ruta principal del conjunto de datos.
Segmentación de piezas ShapeNet
Descargue y descomprima ShapeNet Part (674M). Reemplace $data_root$
en cfgs/config_*_partseg.yaml
con la ruta del conjunto de datos.
sh train_cls.sh
Puede modificar relation_prior
en cfgs/config_*_cls.yaml
. Hemos entrenado un modelo de clasificación de vecindario de escala única en la carpeta cls
, cuya precisión es del 92,38%.
sh train_partseg.sh
Hemos entrenado un modelo de segmentación de partes de vecindarios múltiples en la carpeta seg
, cuya clase mIoU e instancia mIoU es 84,18% y 85,81% respectivamente.
Voting script: voting_evaluate_cls.py
Puede utilizar nuestro modelo cls/model_cls_ssn_iter_16218_acc_0.923825.pth
como punto de control en config_ssn_cls.yaml
y, después de esta votación, obtendrá una precisión del 92,71 % si todo va bien.
Voting script: voting_evaluate_partseg.py
Puede utilizar nuestro modelo seg/model_seg_msn_iter_57585_ins_0.858054_cls_0.841787.pth
como punto de control en config_msn_partseg.yaml
.
El código se publica bajo licencia MIT (consulte el archivo LICENCIA para obtener más detalles).
El código está tomado en gran medida de Pointnet2_PyTorch.
Si tiene algunas ideas o preguntas sobre nuestra investigación para compartir con nosotros, comuníquese con [email protected]