Realtime_Multi Person_Pose_Estimation
1.0.0
저자: Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh.
2016 MSCOCO Keypoints Challenge, 2016 ECCV Best Demo Award 및 2017 CVPR Oral Paper 우승을 위한 코드 저장소입니다.
YouTube나 웹사이트에서 비디오 결과를 시청하세요.
사람 감지기를 사용하지 않고 실시간 다중 사람 포즈 추정을 위한 상향식 접근 방식을 제시합니다. 자세한 내용은 CVPR'17 논문, CVPR 2017의 구두 프레젠테이션 비디오 녹화 또는 ILSVRC 및 COCO 워크숍 2016의 프레젠테이션 슬라이드를 참조하세요.
이 프로젝트는 라이센스 조건에 따라 라이센스가 부여됩니다.
재구현을 위해 노력해주신 모든 분들께 감사드립니다! 새로운 구현이 있고 다른 사람들과 공유하고 싶다면 언제든지 끌어오기 요청을 하거나 이메일을 보내주세요!
cd testing; get_model.sh
웹 서버에서 최신 MSCOCO 모델을 검색하려면 cd testing; get_model.sh
하세요.config.m
에서 caffepath를 변경하고 demo.m
실행하세요.cd testing/python
ipython notebook
demo.ipynb
열고 코드를 실행하세요. cd training; bash getData.sh
사용하면 dataset/COCO/images/
에서 COCO 이미지를 얻고, dataset/COCO/annotations/
에서 키포인트 주석을 얻고, dataset/COCO/coco/
에서 COCO 공식 도구 상자를 얻을 수 있습니다.getANNO.m
실행하여 dataset/COCO/mat/
의 주석 형식을 json에서 mat로 변환합니다.genCOCOMask.m
실행하여 레이블이 없는 사람의 마스크 이미지를 얻습니다. MATLAB에서 'parfor'를 사용하면 코드 속도를 높일 수 있습니다.genJSON('COCO')
실행하여 dataset/COCO/json/
폴더에 json 파일을 생성합니다. json 파일에는 훈련에 필요한 원시 정보가 포함되어 있습니다.python genLMDB.py
실행하여 LMDB를 생성합니다. (COCO 데이터 세트(189GB 파일)용 LMDB를 다음 방법으로 다운로드할 수도 있습니다: bash get_lmdb.sh
)python setLayers.py --exp 1
실행하여 훈련용 prototxt 및 셸 파일을 생성합니다.bash train_pose.sh 0,1
(setLayers.py에 의해 생성됨)을 실행하여 두 개의 GPU로 훈련을 시작합니다. 귀하의 연구에 도움이 된다면 출판물에 해당 논문을 인용해 주십시오.
@inproceedings{cao2017realtime,
author = {Zhe Cao and Tomas Simon and Shih-En Wei and Yaser Sheikh},
booktitle = {CVPR},
title = {Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields},
year = {2017}
}
@inproceedings{wei2016cpm,
author = {Shih-En Wei and Varun Ramakrishna and Takeo Kanade and Yaser Sheikh},
booktitle = {CVPR},
title = {Convolutional pose machines},
year = {2016}
}