Ce référentiel contient des liens vers des modèles pré-entraînés, des exemples de scripts, des bonnes pratiques et des didacticiels étape par étape pour de nombreux modèles d'apprentissage automatique open source populaires optimisés par Intel pour fonctionner sur les processeurs Intel® Xeon® Scalable et les GPU Intel® Data Center. .
Les conteneurs pour exécuter les charges de travail peuvent être trouvés sur Intel® AI Containers.
Les modèles de référence Intel® AI dans un ordinateur portable Jupyter sont également disponibles pour les charges de travail répertoriées
Intel optimise les frameworks d'apprentissage profond populaires tels que TensorFlow* et PyTorch* en contribuant aux projets en amont. Des optimisations supplémentaires sont intégrées aux plugins/extensions telles que l'extension Intel pour Pytorch* et l'extension Intel pour TensorFlow*. Les modèles de réseaux neuronaux populaires exécutés sur des ensembles de données courants sont les charges de travail cibles qui conduisent ces optimisations.
L'objectif du référentiel de modèles de référence Intel® AI (et des conteneurs associés) est de répliquer rapidement l'environnement logiciel complet qui démontre les performances les plus connues de chacune de ces combinaisons modèle cible/ensemble de données. Lorsqu'ils sont exécutés dans des environnements matériels configurés de manière optimale, ces environnements logiciels mettent en valeur les capacités d'IA des plates-formes Intel.
AVIS DE NON-RESPONSABILITÉ : ces scripts ne sont pas destinés à évaluer les plates-formes Intel. Pour toute information sur les performances et/ou l’analyse comparative sur des plates-formes Intel spécifiques, visitez https://www.intel.ai/blog.
Intel s'engage à respecter les droits de l'homme et à éviter de causer ou de contribuer à des impacts négatifs sur les droits de l'homme. Voir les principes mondiaux des droits de l'homme d'Intel. Les produits et logiciels d'Intel sont destinés uniquement à être utilisés dans des applications qui ne provoquent pas ou ne contribuent pas à des impacts négatifs sur les droits de l'homme.
Les modèles de référence Intel® AI sont sous licence Apache License Version 2.0.
Dans la mesure où des ensembles de données publics sont référencés par Intel ou accessibles à l'aide d'outils ou de codes sur ce site, ces ensembles de données sont fournis par le tiers indiqué comme source de données. Intel ne crée pas les données, ni les ensembles de données, et ne garantit pas leur exactitude ou leur qualité. En accédant aux ensembles de données publics, vous acceptez les conditions associées à ces ensembles de données et que votre utilisation est conforme à la licence applicable.
Veuillez consulter la liste des ensembles de données utilisés dans les modèles de référence Intel® AI dans le répertoire des ensembles de données.
Intel décline expressément l'exactitude, l'adéquation ou l'exhaustivité de tout ensemble de données publiques et n'est pas responsable des erreurs, omissions ou défauts dans les données, ni de toute confiance accordée aux données. Intel n'est pas responsable de toute responsabilité ou dommage lié à votre utilisation d'ensembles de données publics.
La documentation du modèle dans les tableaux ci-dessous contient des informations sur les conditions préalables à l'exécution de chaque modèle. Les scripts de modèle s'exécutent sous Linux. Certains modèles peuvent également fonctionner sans système d'exploitation sous Windows. Pour plus d’informations et une liste des modèles pris en charge sous Windows, consultez la documentation ici.
Instructions disponibles pour fonctionner sur Sapphire Rapids.
Pour de meilleures performances sur les GPU Intel® Data Center Flex et Max Series, veuillez consulter la liste des charges de travail prises en charge. Il fournit des instructions pour exécuter l'inférence et la formation à l'aide de l'extension Intel(R) pour PyTorch ou de l'extension Intel(R) pour TensorFlow.
Modèle | Cadre | Mode | Documentation du modèle | Ensemble de données de référence/test |
---|---|---|---|---|
ResNet 50v1.5 Saphir Rapides | TensorFlow | Inférence | Int8 FP32 BFloteur16 BFloteur32 | ImageNet 2012 |
ResNet 50v1.5 Saphir Rapides | TensorFlow | Entraînement | FP32 BFloteur16 BFloteur32 | ImageNet 2012 |
ResNet 50 | PyTorch | Inférence | Int8 FP32 BFloteur16 BFloteur32 | [ImageNet 2012] |
ResNet 50 | PyTorch | Entraînement | FP32 BFloteur16 BFloteur32 | [ImageNet 2012] |
Transformateur de vision | PyTorch | Inférence | FP32 BFlot16 BFlot32 FP16 INT8 | [ImageNet 2012] |
Modèle | Cadre | Mode | Documentation du modèle | Ensemble de données de référence/test |
---|---|---|---|---|
U-Net 3D | TensorFlow | Inférence | FP32 BFloat16 Int8 | BRATS 2018 |
Modèle | Cadre | Mode | Documentation du modèle | Ensemble de données de référence/test |
---|---|---|---|---|
BERT grands rapides saphir | Flux tensoriel | Inférence | FP32 BFloat16 Int8 BFloat32 | Équipe |
BERT grands rapides saphir | Flux tensoriel | Entraînement | FP32 BFloteur16 BFloteur32 | Équipe |
BERT grand (Visage câlin) | TensorFlow | Inférence | FP32 FP16 BFloteur16 BFloteur32 | Équipe |
BERT grand | PyTorch | Inférence | FP32 Int8 BFloat16 BFloat32 | BERT Grand SQuAD1.1 |
BERT grand | PyTorch | Entraînement | FP32 BFloteur16 BFloteur32 | ensemble de données de texte prétraité |
Base DistilBERT | PyTorch | Inférence | FP32 BF32 BF16Int8-FP32 Int8-BFloat16 BFloat32 | DistilBERT Base SQuAD1.1 |
RNN-T | PyTorch | Inférence | FP32 BFloteur16 BFloteur32 | Ensemble de données RNN-T |
RNN-T | PyTorch | Entraînement | FP32 BFloteur16 BFloteur32 | Ensemble de données RNN-T |
GPTJ6B | PyTorch | Inférence | FP32 FP16 BFloat16 BF32 INT8 | |
GPTJ 6B MLPerf | PyTorch | Inférence | INT4 | Ensemble de données CNN-Daily Mail |
LAMA2 7B | PyTorch | Inférence | FP32 FP16 BFloat16 BF32 INT8 | |
LAMA2 7B | PyTorch | Entraînement | FP32 FP16 BFloteur16 BF32 | |
LAMA2 13B | PyTorch | Inférence | FP32 FP16 BFloat16 BF32 INT8 | |
ChatGLMv3 6B | PyTorch | Inférence | FP32 FP16 BFloat16 BF32 INT8 |
Modèle | Cadre | Mode | Documentation du modèle | Ensemble de données de référence/test |
---|---|---|---|---|
BERTE | TensorFlow | Inférence | FP32 | MRPC |
Modèle | Cadre | Mode | Documentation du modèle | Ensemble de données de référence/test |
---|---|---|---|---|
Masque R-CNN | PyTorch | Inférence | FP32 BFloteur16 BFloteur32 | COCO 2017 |
Masque R-CNN | PyTorch | Entraînement | FP32 BFloteur16 BFloteur32 | COCO 2017 |
SSD-ResNet34 | PyTorch | Inférence | FP32 Int8 BFloat16 BFloat32 | COCO 2017 |
SSD-ResNet34 | PyTorch | Entraînement | FP32 BFloteur16 BFloteur32 | COCO 2017 |
Yolo V7 | PyTorch | Inférence | Int8 FP32 FP16 BFloat16 BFloat32 | [COCO 2017](/models_v2/pytorch/yolov7/inference/cpu/README.md## Préparer l'ensemble de données) |
Modèle | Cadre | Mode | Documentation du modèle | Ensemble de données de référence/test |
---|---|---|---|---|
Large et profond | TensorFlow | Inférence | FP32 | Ensemble de données sur le revenu du recensement |
DLRM | PyTorch | Inférence | FP32 Int8 BFloat16 BFloat32 | Criteo Téraoctet |
DLRM | PyTorch | Entraînement | FP32 BFloteur16 BFloteur32 | Criteo Téraoctet |
DLRMv2 | PyTorch | Inférence | FP32 FP16 BFloat16 BFloat32 Int8 | Ensemble de données Criteo 1 To Click Logs |
Modèle | Cadre | Mode | Documentation du modèle | Ensemble de données de référence/test |
---|---|---|---|---|
Diffusion stable | TensorFlow | Inférence | FP32 BFloteur16 FP16 | Ensemble de données de validation COCO 2017 |
Diffusion stable | PyTorch | Inférence | FP32 BFloat16 FP16 BFloat32 Int8-FP32 Int8-BFloat16 | Ensemble de données de validation COCO 2017 |
Diffusion stable | PyTorch | Entraînement | FP32 BFloteur16 FP16 BFloteur32 | images de chat |
Modèles de cohérence latente (LCM) | PyTorch | Inférence | FP32 BFloat16 FP16 BFloat32 Int8-FP32 Int8-BFloat16 | Ensemble de données de validation COCO 2017 |
Modèle | Cadre | Mode | Documentation du modèle | Ensemble de données de référence/test |
---|---|---|---|---|
GraphiqueSAGE | TensorFlow | Inférence | FP32 BFloat16 FP16 Int8 BFloat32 | Interaction protéine-protéine |
*Signifie que le modèle appartient aux modèles MLPerf et sera pris en charge à long terme.
Modèle | Cadre | Mode | Type de processeur graphique | Documentation du modèle |
---|---|---|---|---|
ResNet 50v1.5 | TensorFlow | Inférence | Série Flex | Float32 TF32 Float16 BFloat16 Int8 |
ResNet50 v1.5 | TensorFlow | Entraînement | Série maximale | BFlot16 FP32 |
ResNet50 v1.5 | PyTorch | Inférence | Série Flex, série Max, série Arc | Int8 FP32 FP16 TF32 |
ResNet50 v1.5 | PyTorch | Entraînement | Série Max, série Arc | BFloat16 TF32 FP32 |
DistilBERT | PyTorch | Inférence | Série Flex, série Max | FP32 FP16 BF16 TF32 |
DLRMv1 | PyTorch | Inférence | Série Flex | FP16 FP32 |
SSD-MobileNet* | PyTorch | Inférence | Série Arc | INT8 FP16 FP32 |
EfficaceNet | PyTorch | Inférence | Série Flex | FP16 BF16 FP32 |
EfficaceNet | TensorFlow | Inférence | Série Flex | PC16 |
FBNet | PyTorch | Inférence | Série Flex | FP16 BF16 FP32 |
Ensemble de données large et profond | TensorFlow | Inférence | Série Flex | PC16 |
YOLO V5 | PyTorch | Inférence | Série Flex | PC16 |
BERT grand | PyTorch | Inférence | Série Max, série Arc | BFloteur16 FP32 FP16 |
BERT grand | PyTorch | Entraînement | Série Max, série Arc | BFlot16 FP32 TF32 |
BERT grand | TensorFlow | Entraînement | Série maximale | BFloat16 TF32 FP32 |
DLRMv2 | PyTorch | Inférence | Série maximale | FP32BF16 |
DLRMv2 | PyTorch | Entraînement | Série maximale | FP32 TF32 BF16 |
3D-Unet | PyTorch | Inférence | Série maximale | FP16 INT8 FP32 |
3D-Unet | TensorFlow | Entraînement | Série maximale | BFlot16 FP32 |
Diffusion stable | PyTorch | Inférence | Série Flex, série Max, série Arc | FP16 FP32 |
Diffusion stable | TensorFlow | Inférence | Série Flex | FP16 FP32 |
Masque R-CNN | TensorFlow | Inférence | Série Flex | FP32 Flotteur16 |
Masque R-CNN | TensorFlow | Entraînement | Série maximale | FP32 BFloteur16 |
Transformateur Swin | PyTorch | Inférence | Série Flex | PC16 |
Lancement rapide | PyTorch | Inférence | Série Flex | PC16 |
UNet++ | PyTorch | Inférence | Série Flex | PC16 |
RNN-T | PyTorch | Inférence | Série maximale | FP16 BF16 FP32 |
RNN-T | PyTorch | Entraînement | Série maximale | FP32 BF16 TF32 |
IFRNet | PyTorch | Inférence | Série Flex | PC16 |
RIF | PyTorch | Inférence | Série Flex | PC16 |
Si vous souhaitez ajouter un nouveau script d'analyse comparative, veuillez utiliser ce guide.