Realtime_Multi Person_Pose_Estimation
1.0.0
Zhe Cao、Tomas Simon、Shih-En Wei、Yaser Sheikh 著。
2016 MSCOCO Keypoints Challenge、2016 ECCV Best Demo Award、2017 CVPR Oral Paper を受賞したコード リポジトリ。
YouTube または Web サイトでビデオ結果をご覧ください。
人物検出器を使用せずに、リアルタイムで複数人の姿勢を推定するためのボトムアップ アプローチを提案します。詳細については、CVPR'17 の論文、CVPR 2017 での口頭プレゼンテーションのビデオ録画、または ILSVRC および COCO ワークショップ 2016 でのプレゼンテーション スライドを参照してください。
このプロジェクトは、ライセンス条項に基づいてライセンスされています。
再実装に向けてご尽力いただきました皆様、誠にありがとうございました!新しい実装があり、他の人と共有したい場合は、お気軽にプル リクエストを作成するか、私にメールしてください。
cd testing; get_model.sh
使用して、Web サーバーから最新の MSCOCO モデルを取得します。config.m
の caffepath を変更し、 demo.m
を実行します。cd testing/python
ipython notebook
demo.ipynb
を開いてコードを実行します。 cd training; bash getData.sh
実行して、 dataset/COCO/images/
の COCO 画像、 dataset/COCO/annotations/
のキーポイント アノテーション、 dataset/COCO/coco/
の COCO 公式ツールボックスを取得します。getANNO.m
実行して、注釈形式を json からdataset/COCO/mat/
の mat に変換します。genCOCOMask.m
を実行して、ラベルのない人物のマスク イメージを取得します。 Matlab で 'parfor' を使用すると、コードを高速化できます。genJSON('COCO')
を実行して、 dataset/COCO/json/
フォルダーに json ファイルを生成します。 json ファイルには、トレーニングに必要な生の情報が含まれています。python genLMDB.py
を実行して LMDB を生成します。 (COCO データセット用の LMDB (189GB ファイル) をbash get_lmdb.sh
でダウンロードすることもできます)python setLayers.py --exp 1
を実行して、トレーニング用の prototxt とシェル ファイルを生成します。bash train_pose.sh 0,1
(setLayers.py によって生成) を実行して、2 つの GPU でトレーニングを開始します。 あなたの研究に役立つ場合は、その論文を出版物に引用してください。
@inproceedings{cao2017realtime,
author = {Zhe Cao and Tomas Simon and Shih-En Wei and Yaser Sheikh},
booktitle = {CVPR},
title = {Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields},
year = {2017}
}
@inproceedings{wei2016cpm,
author = {Shih-En Wei and Varun Ramakrishna and Takeo Kanade and Yaser Sheikh},
booktitle = {CVPR},
title = {Convolutional pose machines},
year = {2016}
}