Realtime_Multi Person_Pose_Estimation
1.0.0
作者:曹哲、托马斯·西蒙、魏世恩、亚瑟·谢赫。
赢得 2016 MSCOCO Keypoints Challenge、2016 ECCV 最佳演示奖和 2017 CVPR Oral paper 的代码仓库。
在 YouTube 或我们的网站上观看我们的视频结果。
我们提出了一种自下而上的实时多人姿势估计方法,无需使用任何人员检测器。有关更多详细信息,请参阅我们的 CVPR'17 论文、CVPR 2017 上的口头演示视频记录或 ILSVRC 和 COCO 研讨会 2016 上的演示幻灯片。
该项目根据许可条款获得许可。
感谢大家为重新实施所做的努力!如果您有新的实现并想与其他人分享,请随时提出拉取请求或给我发电子邮件!
cd testing; get_model.sh
从我们的 Web 服务器检索最新的 MSCOCO 模型。config.m
中的 caffepath 并运行demo.m
以获取示例用法。cd testing/python
ipython notebook
demo.ipynb
并执行代码cd training; bash getData.sh
获取dataset/COCO/images/
中的 COCO 图像、 dataset/COCO/annotations/
中的关键点注释以及dataset/COCO/coco/
中的 COCO 官方工具箱。getANNO.m
将dataset/COCO/mat/
中的注释格式从 json 转换为 mat 。genCOCOMask.m
,得到未标记人的掩模图像。您可以在 matlab 中使用“parfor”来加速代码。genJSON('COCO')
在dataset/COCO/json/
文件夹中生成 json 文件。 json 文件包含训练所需的原始信息。python genLMDB.py
生成 LMDB。 (您还可以通过以下方式下载 COCO 数据集的 LMDB(189GB 文件): bash get_lmdb.sh
)python setLayers.py --exp 1
生成用于训练的 prototxt 和 shell 文件。bash train_pose.sh 0,1
(由 setLayers.py 生成)以开始使用两个 GPU 进行训练。 如果该论文对您的研究有帮助,请在您的出版物中引用该论文:
@inproceedings{cao2017realtime,
author = {Zhe Cao and Tomas Simon and Shih-En Wei and Yaser Sheikh},
booktitle = {CVPR},
title = {Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields},
year = {2017}
}
@inproceedings{wei2016cpm,
author = {Shih-En Wei and Varun Ramakrishna and Takeo Kanade and Yaser Sheikh},
booktitle = {CVPR},
title = {Convolutional pose machines},
year = {2016}
}