InsightFace計畫主要由郭嘉和鄧建康維護。
對於所有主要貢獻者,請檢查貢獻。
InsightFace的程式碼是在MIT許可證下發布的。學術和商業用途均沒有限制。
包含註釋的訓練資料(以及使用這些資料訓練的模型)僅可用於非商業研究目的。
從我們的 github 儲存庫手動下載模型和使用 python 庫自動下載模型都遵循上述授權政策(僅用於非商業研究目的)。
2024-08-01
我們已將最先進的換臉模型: inswapper_cyn和inswapper_dax整合到 Picsi.Ai 換臉服務中。這些模型的性能優於幾乎所有類似的商業產品和我們的開源模型 inswapper_128。請造訪 Picsi.Ai 網站使用該服務並取得協助。
2024-05-04
我們新增了InspireFace,這是一個用C/C++開發的跨平台人臉辨識SDK,支援多種作業系統和各種後端。
2023-04-01
:我們整合了最先進的換臉模型: inswapper_cyn和inswapper_dax並將服務移至Discord 機器人,該機器人還支援編輯Midjourney 產生的圖像,請參閱web-demos/swapping_discord 和我們的Picsi.Ai網站的詳細資訊。
2022-08-12
:我們在 ECCV-2022 WCPA 研討會、論文和代碼的基於透視投影的單目 3D 人臉重建挑戰賽中獲得排名第一。
2021-11-30
: MFR-Ongoing Challenge 啟動(與 IFRT 相同),它是 iccv21-mfr 的擴展版本。
2021-10-29
: 我們使用 Partial FC(安翔、鄧健康、郭佳)在 NIST-FRVT 1:1 的 VISA 賽道上獲得第一名。
2024-08-01
我們已將最先進的換臉模型: inswapper_cyn和inswapper_dax整合到 Picsi.Ai 換臉服務中。這些模型的性能優於幾乎所有類似的商業產品和我們的開源模型 inswapper_128。請造訪 Picsi.Ai 網站使用該服務並取得協助。
2024-05-04
我們新增了InspireFace,這是一個用C/C++開發的跨平台人臉辨識SDK,支援多種作業系統和各種後端。
2024-04-17
:單目身份條件臉部反射重建被 CVPR-2024 接受。
2023-08-08
:我們發布了重建/注視時綜合視圖弱監督的廣義注視估計的實現。
2023-05-03
: 我們推出了野臉反欺騙挑戰賽正在進行中的版本。請參閱此處的詳細資訊。
2023-04-01
:我們整合了最先進的換臉模型: inswapper_cyn和inswapper_dax並將服務移至Discord 機器人,該機器人還支援編輯Midjourney 產生的圖像,請參閱web-demos/swapping_discord 和我們的Picsi.Ai網站的詳細資訊。
2023-02-13
: 我們在CVPR23 Workshop上發動大規模野外人臉反欺騙挑戰,詳情請參閱challenges/cvpr23-fas-wild。
2022-11-28
:我們的 python packge ver 0.7 中用於臉部身分交換的單行程式碼,請查看此處的範例。
2022-10-28
: MFR-Ongoing 網站重構,如有bug請提出issue。
2022-09-22
:現在我們有網路示範:臉部定位、臉部辨識和臉部交換。
2022-08-12
:我們在 ECCV-2022 WCPA 研討會、論文和代碼的基於透視投影的單目 3D 人臉重建挑戰賽中獲得排名第一。
2022-03-30
:部分 FC 被 CVPR-2022 接受。
2022-02-23
:SCRFD 被 ICLR-2022 接受。
2021-11-30
: MFR-Ongoing Challenge 啟動(與 IFRT 相同),它是 iccv21-mfr 的擴展版本。
2021-10-29
: 我們使用 Partial FC(安翔、鄧健康、郭佳)在 NIST-FRVT 1:1 的 VISA 賽道上獲得第一名。
2021-10-11
: ICCV21-蒙面人臉辨識挑戰賽排行榜發布。影片:YouTube、嗶哩嗶哩。
2021-06-05
: 我們在 ICCV 2021 上推出蒙面人臉辨識挑戰賽和研討會。
InsightFace是一個開源的2D&3D深度人臉分析工具箱,主要基於PyTorch和MXNet。
詳情請查看我們的網站。
master 分支與PyTorch 1.6+和/或MXNet=1.6-1.8以及Python 3.x一起使用。
InsightFace 有效地實現了各種最先進的人臉辨識、人臉偵測和人臉對齊演算法,並針對訓練和部署進行了最佳化。
請從我們的 python 套件開始,用於測試輸入影像的偵測、辨識和對齊模型。
請點圖觀看 Youtube 影片。 B站用戶請點這裡。
InsightFace網站上的頁面也描述了InsightFace中所有支援的項目。
您可能也對 InsightFace 提出的一些挑戰感興趣。
在本模組中,我們提供深度人臉辨識的訓練資料、網路設定和損失設計。
支持的方法如下:
大多數方法都包含了常用的網路主幹,例如IResNet、MobilefaceNet、MobileNet、InceptionResNet_v2、DenseNet等。
訓練資料包括但不限於清理後的 MS1M、VGG2 和 CASIA-Webface 資料集,這些資料集已經以 MXNet 二進位格式打包。請資料集頁面了解詳細資訊。
我們在評估中提供標準的IJB和Megaface評估管道
請查看 Model-Zoo 以了解更多預訓練模型。
在本模組中,我們提供帶有註釋、網路設定和損失設計的訓練數據,用於人臉偵測訓練、評估和推理。
支持的方法如下:
RetinaFace是一款實用的單級人臉偵測器,已被CVPR 2020接受。
SCRFD 是一種高效、高精度的人臉偵測方法,最初在 Arxiv 中進行了描述。我們提供易於使用的管道來訓練具有 NAS 支援的高效人臉偵測器。
在本模組中,我們提供用於人臉對齊的資料集和訓練/推理管道。
支持的方法:
SDUNets 是一種基於熱圖的方法,已被 BMVC 接受。
SimpleRegression 提供了非常輕量級的臉部標誌模型和快速座標回歸。這些模型的輸入是鬆散裁剪的人臉影像,而輸出是直接的地標座標。
如果您發現InsightFace對您的研究有用,請考慮引用以下相關論文:
@inproceedings{ren2023pbidr,
title={Facial Geometric Detail Recovery via Implicit Representation},
author={Ren, Xingyu and Lattas, Alexandros and Gecer, Baris and Deng, Jiankang and Ma, Chao and Yang, Xiaokang},
booktitle={2023 IEEE 17th International Conference on Automatic Face and Gesture Recognition (FG)},
year={2023}
}
@article{guo2021sample,
title={Sample and Computation Redistribution for Efficient Face Detection},
author={Guo, Jia and Deng, Jiankang and Lattas, Alexandros and Zafeiriou, Stefanos},
journal={arXiv preprint arXiv:2105.04714},
year={2021}
}
@inproceedings{gecer2021ostec,
title={OSTeC: One-Shot Texture Completion},
author={Gecer, Baris and Deng, Jiankang and Zafeiriou, Stefanos},
booktitle={Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
year={2021}
}
@inproceedings{an_2022_pfc_cvpr,
title={Killing Two Birds with One Stone: Efficient and Robust Training of Face Recognition CNNs by Partial FC},
author={An, Xiang and Deng, Jiangkang and Guo, Jia and Feng, Ziyong and Zhu, Xuhan and Jing, Yang and Tongliang, Liu},
booktitle={CVPR},
year={2022}
}
@inproceedings{an_2021_pfc_iccvw,
title={Partial FC: Training 10 Million Identities on a Single Machine},
author={An, Xiang and Zhu, Xuhan and Gao, Yuan and Xiao, Yang and Zhao, Yongle and Feng, Ziyong and Wu, Lan and Qin, Bin and Zhang, Ming and Zhang, Debing and Fu, Ying},
booktitle={ICCVW},
year={2021},
}
@inproceedings{deng2020subcenter,
title={Sub-center ArcFace: Boosting Face Recognition by Large-scale Noisy Web Faces},
author={Deng, Jiankang and Guo, Jia and Liu, Tongliang and Gong, Mingming and Zafeiriou, Stefanos},
booktitle={Proceedings of the IEEE Conference on European Conference on Computer Vision},
year={2020}
}
@inproceedings{Deng2020CVPR,
title = {RetinaFace: Single-Shot Multi-Level Face Localisation in the Wild},
author = {Deng, Jiankang and Guo, Jia and Ververas, Evangelos and Kotsia, Irene and Zafeiriou, Stefanos},
booktitle = {CVPR},
year = {2020}
}
@inproceedings{guo2018stacked,
title={Stacked Dense U-Nets with Dual Transformers for Robust Face Alignment},
author={Guo, Jia and Deng, Jiankang and Xue, Niannan and Zafeiriou, Stefanos},
booktitle={BMVC},
year={2018}
}
@article{deng2018menpo,
title={The Menpo benchmark for multi-pose 2D and 3D facial landmark localisation and tracking},
author={Deng, Jiankang and Roussos, Anastasios and Chrysos, Grigorios and Ververas, Evangelos and Kotsia, Irene and Shen, Jie and Zafeiriou, Stefanos},
journal={IJCV},
year={2018}
}
@inproceedings{deng2018arcface,
title={ArcFace: Additive Angular Margin Loss for Deep Face Recognition},
author={Deng, Jiankang and Guo, Jia and Niannan, Xue and Zafeiriou, Stefanos},
booktitle={CVPR},
year={2019}
}
主要貢獻者:
guojia[at]gmail.com
jiankangdeng[at]gmail.com
anxiangsir[at]gmail.com
jackyu961127[at]gmail.com
barisgecer[at]msn.com