Este repositório contém a implementação do autor em Pytorch para o artigo:
Rede Neural Convolucional em Forma de Relação para Análise de Nuvem de Pontos [arXiv] [CVF]
Yongcheng Liu, Bin Fan, Shiming Xiang e Chunhong Pan
Página do projeto finalista do CVPR 2019 Oral e Melhor Artigo : https://yochengliu.github.io/Relation-Shape-CNN/
Se nosso artigo for útil para sua pesquisa, considere citar:
@inproceedings { liu2019rscnn ,
author = { Yongcheng Liu and
Bin Fan and
Shiming Xiang and
Chunhong Pan } ,
title = { Relation-Shape Convolutional Neural Network for Point Cloud Analysis } ,
booktitle = { IEEE Conference on Computer Vision and Pattern Recognition (CVPR) } ,
pages = { 8895--8904 } ,
year = { 2019 }
}
git clone https://github.com/Yochengliu/Relation-Shape-CNN.git
cd Relation-Shape-CNN
Classificação de formas
Baixe e descompacte ModelNet40 (415M). Substitua $data_root$
em cfgs/config_*_cls.yaml
pelo caminho pai do conjunto de dados.
Segmentação de peças ShapeNet
Baixe e descompacte a peça ShapeNet (674M). Substitua $data_root$
em cfgs/config_*_partseg.yaml
pelo caminho do conjunto de dados.
sh train_cls.sh
Você pode modificar relation_prior
em cfgs/config_*_cls.yaml
. Treinamos um modelo de classificação de vizinhança em escala única na pasta cls
, cuja precisão é de 92,38%.
sh train_partseg.sh
Treinamos um modelo de segmentação de peças Multi-Scale-Neighborhood na pasta seg
, cuja classe mIoU e instância mIoU são 84,18% e 85,81%, respectivamente.
Voting script: voting_evaluate_cls.py
Você pode usar nosso modelo cls/model_cls_ssn_iter_16218_acc_0.923825.pth
como ponto de verificação em config_ssn_cls.yaml
e após esta votação você obterá uma precisão de 92,71% se tudo der certo.
Voting script: voting_evaluate_partseg.py
Você pode usar nosso modelo seg/model_seg_msn_iter_57585_ins_0.858054_cls_0.841787.pth
como ponto de verificação em config_msn_partseg.yaml
.
O código é lançado sob licença MIT (consulte o arquivo LICENSE para obter detalhes).
O código foi fortemente emprestado de Pointnet2_PyTorch.
Se você tiver alguma ideia ou dúvida sobre nossa pesquisa para compartilhar conosco, entre em contato com [email protected]