Von Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh.
Code-Repo für den Gewinn der MSCOCO Keypoints Challenge 2016, des ECCV Best Demo Award 2016 und des CVPR Oral Paper 2017.
Sehen Sie sich unser Videoergebnis auf YouTube oder unserer Website an.
Wir präsentieren einen Bottom-up-Ansatz für die Posenschätzung mehrerer Personen in Echtzeit, ohne einen Personendetektor zu verwenden. Weitere Einzelheiten finden Sie in unserem CVPR'17-Papier, unserer mündlichen Präsentationsvideoaufzeichnung beim CVPR 2017 oder unseren Präsentationsfolien beim ILSVRC- und COCO-Workshop 2016.
Dieses Projekt ist gemäß den Lizenzbedingungen lizenziert.
Vielen Dank an alle für die Bemühungen um die Neuimplementierung! Wenn Sie eine neue Implementierung haben und diese mit anderen teilen möchten, können Sie gerne eine Pull-Anfrage stellen oder mir eine E-Mail senden!
cd testing; get_model.sh
um unser neuestes MSCOCO-Modell von unserem Webserver abzurufen.config.m
und führen Sie demo.m
aus, um ein Beispiel für die Verwendung zu erhalten.cd testing/python
ipython notebook
demo.ipynb
und führen Sie den Code aus cd training; bash getData.sh
um die COCO-Bilder in dataset/COCO/images/
, die Schlüsselpunktanmerkungen in dataset/COCO/annotations/
und die offizielle COCO-Toolbox in dataset/COCO/coco/
zu erhalten.getANNO.m
in Matlab aus, um das Annotationsformat von JSON in Mat im dataset/COCO/mat/
zu konvertieren.genCOCOMask.m
in Matlab aus, um die Maskenbilder für unbeschriftete Personen zu erhalten. Sie können „parfor“ in Matlab verwenden, um den Code zu beschleunigen.genJSON('COCO')
aus, um eine JSON-Datei im Ordner dataset/COCO/json/
zu generieren. Die JSON-Dateien enthalten Rohinformationen, die für das Training benötigt werden.python genLMDB.py
aus, um Ihre LMDB zu generieren. (Sie können auch unsere LMDB für den COCO-Datensatz (189-GB-Datei) herunterladen von: bash get_lmdb.sh
)python setLayers.py --exp 1
aus, um die Prototxt- und Shell-Datei für das Training zu generieren.bash train_pose.sh 0,1
(generiert von setLayers.py) aus, um das Training mit zwei GPUs zu starten. Bitte zitieren Sie den Artikel in Ihren Veröffentlichungen, wenn er Ihrer Forschung hilft:
@inproceedings{cao2017realtime,
author = {Zhe Cao and Tomas Simon and Shih-En Wei and Yaser Sheikh},
booktitle = {CVPR},
title = {Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields},
year = {2017}
}
@inproceedings{wei2016cpm,
author = {Shih-En Wei and Varun Ramakrishna and Takeo Kanade and Yaser Sheikh},
booktitle = {CVPR},
title = {Convolutional pose machines},
year = {2016}
}