InsightFace 프로젝트는 주로 Jia Guo와 Jiankang Deng이 관리합니다.
모든 주요 기여자의 경우 기여를 확인하세요.
InsightFace의 코드는 MIT 라이선스에 따라 공개됩니다. 학술적, 상업적 용도 모두 제한이 없습니다.
주석이 포함된 학습 데이터(및 이러한 데이터로 학습된 모델)는 비상업적 연구 목적으로만 사용할 수 있습니다.
github 저장소에서 수동으로 다운로드하는 모델과 Python 라이브러리를 사용하여 자동으로 다운로드하는 모델 모두 위의 라이선스 정책을 따릅니다(비상업적 연구 목적으로만 사용됨).
2024-08-01
우리는 가장 발전된 얼굴 스와핑 모델인 inswapper_cyn 및 inswapper_dax를 Picsi.Ai 얼굴 스와핑 서비스에 통합했습니다. 이러한 모델은 거의 모든 유사한 상용 제품과 오픈 소스 모델 inswapper_128보다 성능이 뛰어납니다. 서비스 이용 및 도움을 받으려면 Picsi.Ai 웹사이트를 방문하세요.
2024-05-04
C/C++로 개발된 크로스 플랫폼 얼굴 인식 SDK인 InspireFace를 추가했으며, 다양한 운영체제와 다양한 백엔드를 지원합니다.
2023-04-01
: 우리는 가장 발전된 얼굴 교환 모델인 inswapper_cyn 및 inswapper_dax를 통합하고 서비스를 Discord 봇으로 이전했습니다. 이 봇은 Midjourney에서 생성된 이미지 편집도 지원합니다. 자세한 내용은 web-demos/swapping_discord 및 Picsi.Ai 웹사이트를 참조하세요. .
2022-08-12
: ECCV-2022 WCPA 워크숍, 논문 및 코드의 원근 투영 기반 단안 3D 얼굴 재구성 챌린지에서 1위를 달성했습니다.
2021-11-30
: iccv21-mfr의 확장 버전인 MFR-Ongoing 챌린지가 시작되었습니다(IFRT와 동일).
2021-10-29
: Partial FC(Xiang An, Jiankang Deng, Jia Guo)를 사용하여 NIST-FRVT 1:1 VISA 트랙에서 1위를 달성했습니다.
2024-08-01
우리는 가장 발전된 얼굴 스와핑 모델인 inswapper_cyn 및 inswapper_dax를 Picsi.Ai 얼굴 스와핑 서비스에 통합했습니다. 이러한 모델은 거의 모든 유사한 상용 제품과 오픈 소스 모델 inswapper_128보다 성능이 뛰어납니다. 서비스 이용 및 도움을 받으려면 Picsi.Ai 웹사이트를 방문하세요.
2024-05-04
C/C++로 개발된 크로스 플랫폼 얼굴 인식 SDK인 InspireFace를 추가했으며, 다양한 운영체제와 다양한 백엔드를 지원합니다.
2024-04-17
: CVPR-2024에서 승인된 단안 신원 조건 조건 안면 반사율 재구성.
2023-08-08
: 재구성/응시 시 합성 뷰의 약한 감독을 사용한 일반화 시선 추정 구현을 출시했습니다.
2023-05-03
: 우리는 현재 진행 중인 야생 얼굴 스푸핑 방지 챌린지 버전을 출시했습니다. 자세한 내용은 여기를 참조하세요.
2023-04-01
: 우리는 가장 발전된 얼굴 교환 모델인 inswapper_cyn 및 inswapper_dax를 통합하고 서비스를 Discord 봇으로 이전했습니다. 이 봇은 Midjourney에서 생성된 이미지 편집도 지원합니다. 자세한 내용은 web-demos/swapping_discord 및 Picsi.Ai 웹사이트를 참조하세요. .
2023-02-13
: CVPR23 워크샵에서 대규모의 와일드 페이스 스푸핑 방지 챌린지를 시작합니다. 자세한 내용은 Challenge/cvpr23-fas-wild에서 확인하세요.
2022-11-28
: Python 패키지 버전 0.7에서 얼굴 신원 교환을 위한 한 줄 코드입니다. 여기에서 예를 확인하세요.
2022-10-28
: MFR-Ongoing 웹사이트가 리팩토링되었습니다. 버그가 있으면 이슈를 만들어주세요.
2022-09-22
: 이제 웹 데모가 생겼습니다: 얼굴 위치 파악, 얼굴 인식, 얼굴 교환.
2022-08-12
: ECCV-2022 WCPA 워크숍, 논문 및 코드의 원근 투영 기반 단안 3D 얼굴 재구성 챌린지에서 1위를 달성했습니다.
2022-03-30
: CVPR-2022에서 일부 FC가 승인되었습니다.
2022-02-23
: ICLR-2022에서 SCRFD가 승인되었습니다.
2021-11-30
: iccv21-mfr의 확장 버전인 MFR-Ongoing 챌린지가 시작되었습니다(IFRT와 동일).
2021-10-29
: Partial FC(Xiang An, Jiankang Deng, Jia Guo)를 사용하여 NIST-FRVT 1:1 VISA 트랙에서 1위를 달성했습니다.
2021-10-11
: ICCV21 리더보드 - 가면 인식 챌린지 공개. 영상: 유튜브, Bilibili.
2021-06-05
: ICCV 2021에서 마스크를 쓴 얼굴 인식 챌린지 및 워크숍을 시작합니다.
InsightFace는 주로 PyTorch 및 MXNet을 기반으로 하는 오픈 소스 2D&3D 심층 얼굴 분석 도구 상자입니다.
자세한 내용은 당사 웹사이트를 확인하시기 바랍니다.
마스터 브랜치는 Python 3.x 와 함께 PyTorch 1.6+ 및/또는 MXNet=1.6-1.8 에서 작동합니다.
InsightFace는 훈련과 배포 모두에 최적화된 얼굴 인식, 얼굴 감지, 얼굴 정렬 등 다양한 최첨단 알고리즘을 효율적으로 구현합니다.
입력 이미지에 대한 감지, 인식 및 정렬 모델을 테스트하려면 Python 패키지로 시작하십시오.
이미지를 클릭하시면 유튜브 영상을 보실 수 있습니다. Bilibili 사용자는 여기를 클릭하세요.
InsightFace 웹사이트의 페이지에는 InsightFace에서 지원되는 모든 프로젝트도 설명되어 있습니다.
InsightFace가 개최하는 몇 가지 과제에 관심이 있으실 수도 있습니다.
이 모듈에서는 심층 얼굴 인식을 위한 훈련 데이터, 네트워크 설정 및 손실 설계를 제공합니다.
지원되는 방법은 다음과 같습니다.
일반적으로 사용되는 네트워크 백본은 IResNet, MobilefaceNet, MobileNet, InceptionResNet_v2, DenseNet 등과 같은 대부분의 방법에 포함되어 있습니다.
교육 데이터에는 이미 MXNet 바이너리 형식으로 압축된 정리된 MS1M, VGG2 및 CASIA-Webface 데이터 세트가 포함되지만 이에 국한되지는 않습니다. 자세한 내용은 데이터세트 페이지를 참조하세요.
평가 시 표준 IJB 및 Megaface 평가 파이프라인을 제공합니다.
더 많은 사전 훈련된 모델을 보려면 Model-Zoo를 확인하세요.
이 모듈에서는 얼굴 감지 훈련, 평가 및 추론을 위한 주석, 네트워크 설정 및 손실 설계가 포함된 훈련 데이터를 제공합니다.
지원되는 방법은 다음과 같습니다.
RetinaFace는 CVPR 2020에서 승인된 실용적인 단일 단계 얼굴 감지기입니다. 우리는 훈련 코드, 훈련 데이터 세트, 사전 훈련된 모델 및 평가 스크립트를 제공합니다.
SCRFD는 처음에 Arxiv에 설명된 효율적인 고정밀 얼굴 감지 접근 방식입니다. 우리는 NAS 지원을 통해 고효율 얼굴 감지기를 훈련할 수 있는 사용하기 쉬운 파이프라인을 제공합니다.
이 모듈에서는 얼굴 정렬을 위한 데이터세트와 훈련/추론 파이프라인을 제공합니다.
지원되는 방법:
SDUNets는 BMVC에서 허용되는 히트맵 기반 방법입니다.
SimpleRegression은 빠른 좌표 회귀를 통해 매우 가벼운 얼굴 랜드마크 모델을 제공합니다. 이 모델의 입력은 느슨하게 잘린 얼굴 이미지이고 출력은 직접적인 랜드마크 좌표입니다.
InsightFace가 연구에 유용하다고 생각되면 다음 관련 논문을 인용하는 것을 고려해 보십시오.
@inproceedings{ren2023pbidr,
title={Facial Geometric Detail Recovery via Implicit Representation},
author={Ren, Xingyu and Lattas, Alexandros and Gecer, Baris and Deng, Jiankang and Ma, Chao and Yang, Xiaokang},
booktitle={2023 IEEE 17th International Conference on Automatic Face and Gesture Recognition (FG)},
year={2023}
}
@article{guo2021sample,
title={Sample and Computation Redistribution for Efficient Face Detection},
author={Guo, Jia and Deng, Jiankang and Lattas, Alexandros and Zafeiriou, Stefanos},
journal={arXiv preprint arXiv:2105.04714},
year={2021}
}
@inproceedings{gecer2021ostec,
title={OSTeC: One-Shot Texture Completion},
author={Gecer, Baris and Deng, Jiankang and Zafeiriou, Stefanos},
booktitle={Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
year={2021}
}
@inproceedings{an_2022_pfc_cvpr,
title={Killing Two Birds with One Stone: Efficient and Robust Training of Face Recognition CNNs by Partial FC},
author={An, Xiang and Deng, Jiangkang and Guo, Jia and Feng, Ziyong and Zhu, Xuhan and Jing, Yang and Tongliang, Liu},
booktitle={CVPR},
year={2022}
}
@inproceedings{an_2021_pfc_iccvw,
title={Partial FC: Training 10 Million Identities on a Single Machine},
author={An, Xiang and Zhu, Xuhan and Gao, Yuan and Xiao, Yang and Zhao, Yongle and Feng, Ziyong and Wu, Lan and Qin, Bin and Zhang, Ming and Zhang, Debing and Fu, Ying},
booktitle={ICCVW},
year={2021},
}
@inproceedings{deng2020subcenter,
title={Sub-center ArcFace: Boosting Face Recognition by Large-scale Noisy Web Faces},
author={Deng, Jiankang and Guo, Jia and Liu, Tongliang and Gong, Mingming and Zafeiriou, Stefanos},
booktitle={Proceedings of the IEEE Conference on European Conference on Computer Vision},
year={2020}
}
@inproceedings{Deng2020CVPR,
title = {RetinaFace: Single-Shot Multi-Level Face Localisation in the Wild},
author = {Deng, Jiankang and Guo, Jia and Ververas, Evangelos and Kotsia, Irene and Zafeiriou, Stefanos},
booktitle = {CVPR},
year = {2020}
}
@inproceedings{guo2018stacked,
title={Stacked Dense U-Nets with Dual Transformers for Robust Face Alignment},
author={Guo, Jia and Deng, Jiankang and Xue, Niannan and Zafeiriou, Stefanos},
booktitle={BMVC},
year={2018}
}
@article{deng2018menpo,
title={The Menpo benchmark for multi-pose 2D and 3D facial landmark localisation and tracking},
author={Deng, Jiankang and Roussos, Anastasios and Chrysos, Grigorios and Ververas, Evangelos and Kotsia, Irene and Shen, Jie and Zafeiriou, Stefanos},
journal={IJCV},
year={2018}
}
@inproceedings{deng2018arcface,
title={ArcFace: Additive Angular Margin Loss for Deep Face Recognition},
author={Deng, Jiankang and Guo, Jia and Niannan, Xue and Zafeiriou, Stefanos},
booktitle={CVPR},
year={2019}
}
주요 기여자:
guojia[at]gmail.com
jiankangdeng[at]gmail.com
anxiangsir[at]gmail.com
jackyu961127[at]gmail.com
barisgecer[at]msn.com