Este repositório contém links para modelos pré-treinados, scripts de amostra, práticas recomendadas e tutoriais passo a passo para muitos modelos populares de aprendizado de máquina de código aberto otimizados pela Intel para execução em processadores escaláveis Intel® Xeon® e GPUs Intel® Data Center .
Os contêineres para execução das cargas de trabalho podem ser encontrados em Intel® AI Containers.
Os modelos de referência Intel® AI em um notebook Jupyter também estão disponíveis para as cargas de trabalho listadas
A Intel otimiza estruturas populares de aprendizagem profunda, como TensorFlow* e PyTorch*, contribuindo para projetos upstream. Otimizações adicionais são incorporadas em plug-ins/extensões, como Intel Extension para Pytorch* e Intel Extension para TensorFlow*. Modelos populares de redes neurais executados em conjuntos de dados comuns são as cargas de trabalho alvo que impulsionam essas otimizações.
O objetivo do repositório de modelos de referência de IA Intel® (e contêineres associados) é replicar rapidamente o ambiente de software completo que demonstra o desempenho mais conhecido de cada uma dessas combinações de modelo/conjunto de dados de destino. Quando executados em ambientes de hardware configurados de maneira ideal, esses ambientes de software demonstram os recursos de IA das plataformas Intel.
AVISO LEGAL: Esses scripts não se destinam ao benchmarking de plataformas Intel. Para qualquer informação de desempenho e/ou benchmarking em plataformas Intel específicas, visite https://www.intel.ai/blog.
A Intel está comprometida em respeitar os direitos humanos e em evitar causar ou contribuir para impactos adversos nos direitos humanos. Consulte os Princípios Globais de Direitos Humanos da Intel. Os produtos e software da Intel destinam-se apenas ao uso em aplicações que não causem ou contribuam para impactos adversos nos direitos humanos.
Os modelos de referência Intel® AI são licenciados sob a licença Apache versão 2.0.
Na medida em que quaisquer conjuntos de dados públicos sejam referenciados pela Intel ou acessados por meio de ferramentas ou códigos neste site, esses conjuntos de dados serão fornecidos por terceiros indicados como a fonte dos dados. A Intel não cria os dados ou conjuntos de dados e não garante sua precisão ou qualidade. Ao acessar o(s) conjunto(s) de dados públicos, você concorda com os termos associados a esses conjuntos de dados e que seu uso está em conformidade com a licença aplicável.
Verifique a lista de conjuntos de dados usados nos modelos de referência de IA Intel® no diretório de conjuntos de dados.
A Intel se isenta expressamente da exatidão, adequação ou integridade de quaisquer conjuntos de dados públicos e não é responsável por quaisquer erros, omissões ou defeitos nos dados, ou por qualquer confiança nos dados. A Intel não se responsabiliza por quaisquer danos ou responsabilidades relacionados ao uso de conjuntos de dados públicos.
A documentação do modelo nas tabelas abaixo contém informações sobre os pré-requisitos para executar cada modelo. Os scripts do modelo são executados no Linux. Certos modelos também podem ser executados usando bare metal no Windows. Para obter mais informações e uma lista de modelos compatíveis com Windows, consulte a documentação aqui.
Instruções disponíveis para execução no Sapphire Rapids.
Para obter melhor desempenho nas séries Intel® Data Center GPU Flex e Max, verifique a lista de cargas de trabalho suportadas. Ele fornece instruções para executar inferência e treinamento usando extensão Intel(R) para PyTorch ou extensão Intel(R) para TensorFlow.
Modelo | Estrutura | Modo | Documentação do modelo | Conjunto de dados de referência/teste |
---|---|---|---|---|
ResNet 50v1.5 Safira Corredeiras | TensorFlow | Inferência | Int8 FP32 BFloat16 BFloat32 | ImageNet 2012 |
ResNet 50v1.5 Safira Corredeiras | TensorFlow | Treinamento | FP32 BFloat16 BFloat32 | ImageNet 2012 |
ResNet 50 | PyTorch | Inferência | Int8 FP32 BFloat16 BFloat32 | [ImageNet 2012] |
ResNet 50 | PyTorch | Treinamento | FP32 BFloat16 BFloat32 | [ImageNet 2012] |
Transformador de Visão | PyTorch | Inferência | FP32 BFloat16 BFloat32 FP16 INT8 | [ImageNet 2012] |
Modelo | Estrutura | Modo | Documentação do modelo | Conjunto de dados de referência/teste |
---|---|---|---|---|
U-Net Modelo 3D | TensorFlow | Inferência | FP32 BFloat16 Int8 | BRATS 2018 |
Modelo | Estrutura | Modo | Documentação do modelo | Conjunto de dados de referência/teste |
---|---|---|---|---|
BERT grande Sapphire Rapids | Fluxo tensor | Inferência | FP32 BFloat16 Int8 BFloat32 | Esquadrão |
BERT grande Sapphire Rapids | Fluxo tensor | Treinamento | FP32 BFloat16 BFloat32 | Esquadrão |
BERT grande (rosto abraçado) | TensorFlow | Inferência | FP32 FP16 BFloat16 BFloat32 | Esquadrão |
BERT grande | PyTorch | Inferência | FP32 Int8 BFloat16 BFloat32 | BERT Grande Esquadrão1.1 |
BERT grande | PyTorch | Treinamento | FP32 BFloat16 BFloat32 | conjunto de dados de texto pré-processado |
Base DistilBERT | PyTorch | Inferência | FP32 BF32 BF16Int8-FP32 Int8-BFloat16 BFloat32 | Base DistilBERT SQuAD1.1 |
RNN-T | PyTorch | Inferência | FP32 BFloat16 BFloat32 | Conjunto de dados RNN-T |
RNN-T | PyTorch | Treinamento | FP32 BFloat16 BFloat32 | Conjunto de dados RNN-T |
GPTJ6B | PyTorch | Inferência | FP32 FP16 BFloat16 BF32 INT8 | |
GPTJ 6B MLPerf | PyTorch | Inferência | INT4 | Conjunto de dados CNN-Daily Mail |
LAMA2 7B | PyTorch | Inferência | FP32 FP16 BFloat16 BF32 INT8 | |
LAMA2 7B | PyTorch | Treinamento | FP32 FP16 BFloat16 BF32 | |
LAMA2 13B | PyTorch | Inferência | FP32 FP16 BFloat16 BF32 INT8 | |
Bate-papoGLMv3 6B | PyTorch | Inferência | FP32 FP16 BFloat16 BF32 INT8 |
Modelo | Estrutura | Modo | Documentação do modelo | Conjunto de dados de referência/teste |
---|---|---|---|---|
BERTO | TensorFlow | Inferência | FP32 | MRPC |
Modelo | Estrutura | Modo | Documentação do modelo | Conjunto de dados de referência/teste |
---|---|---|---|---|
Máscara R-CNN | PyTorch | Inferência | FP32 BFloat16 BFloat32 | COCO 2017 |
Máscara R-CNN | PyTorch | Treinamento | FP32 BFloat16 BFloat32 | COCO 2017 |
SSD-ResNet34 | PyTorch | Inferência | FP32 Int8 BFloat16 BFloat32 | COCO 2017 |
SSD-ResNet34 | PyTorch | Treinamento | FP32 BFloat16 BFloat32 | COCO 2017 |
Yolo V7 | PyTorch | Inferência | Int8 FP32 FP16 BFloat16 BFloat32 | [COCO 2017](/models_v2/pytorch/yolov7/inference/cpu/README.md## Preparar conjunto de dados) |
Modelo | Estrutura | Modo | Documentação do modelo | Conjunto de dados de referência/teste |
---|---|---|---|---|
Amplo e profundo | TensorFlow | Inferência | FP32 | Conjunto de dados de renda do censo |
DLRM | PyTorch | Inferência | FP32 Int8 BFloat16 BFloat32 | Criteo Terabyte |
DLRM | PyTorch | Treinamento | FP32 BFloat16 BFloat32 | Criteo Terabyte |
DLRMv2 | PyTorch | Inferência | FP32 FP16 BFloat16 BFloat32 Int8 | Conjunto de dados Criteo 1TB Click Logs |
Modelo | Estrutura | Modo | Documentação do modelo | Conjunto de dados de referência/teste |
---|---|---|---|---|
Difusão Estável | TensorFlow | Inferência | FP32 BFloat16 FP16 | Conjunto de dados de validação COCO 2017 |
Difusão Estável | PyTorch | Inferência | FP32 BFloat16 FP16 BFloat32 Int8-FP32 Int8-BFloat16 | Conjunto de dados de validação COCO 2017 |
Difusão Estável | PyTorch | Treinamento | FP32 BFloat16 FP16 BFloat32 | imagens de gatos |
Modelos de Consistência Latente (LCM) | PyTorch | Inferência | FP32 BFloat16 FP16 BFloat32 Int8-FP32 Int8-BFloat16 | Conjunto de dados de validação COCO 2017 |
Modelo | Estrutura | Modo | Documentação do modelo | Conjunto de dados de referência/teste |
---|---|---|---|---|
GráficoSAGE | TensorFlow | Inferência | FP32 BFloat16 FP16 Int8 BFloat32 | Interação Proteína Proteína |
*Significa que o modelo pertence aos modelos MLPerf e terá suporte a longo prazo.
Modelo | Estrutura | Modo | Tipo de GPU | Documentação do modelo |
---|---|---|---|---|
ResNet 50v1.5 | TensorFlow | Inferência | Série Flexível | Float32 TF32 Float16 BFloat16 Int8 |
ResNet 50 v1.5 | TensorFlow | Treinamento | Série Máxima | BFloat16 FP32 |
ResNet 50 v1.5 | PyTorch | Inferência | Série Flex, Série Max, Série Arc | Int8 FP32 FP16 TF32 |
ResNet 50 v1.5 | PyTorch | Treinamento | Série Max, Série Arc | BFloat16 TF32 FP32 |
DistilBERT | PyTorch | Inferência | Série Flex, Série Max | FP32 FP16 BF16 TF32 |
DLRMv1 | PyTorch | Inferência | Série Flexível | FP16 FP32 |
SSD-MobileNet* | PyTorch | Inferência | Série Arco | INT8 FP16 FP32 |
EficienteNet | PyTorch | Inferência | Série Flexível | FP16 BF16 FP32 |
EficienteNet | TensorFlow | Inferência | Série Flexível | FP16 |
FBNet | PyTorch | Inferência | Série Flexível | FP16 BF16 FP32 |
Conjunto de dados grande e profundo | TensorFlow | Inferência | Série Flexível | FP16 |
YOLO V5 | PyTorch | Inferência | Série Flexível | FP16 |
BERT grande | PyTorch | Inferência | Série Max, Série Arc | BFloat16 FP32 FP16 |
BERT grande | PyTorch | Treinamento | Série Max, Série Arc | BFloat16 FP32 TF32 |
BERT grande | TensorFlow | Treinamento | Série Máxima | BFloat16 TF32 FP32 |
DLRMv2 | PyTorch | Inferência | Série Máxima | FP32 BF16 |
DLRMv2 | PyTorch | Treinamento | Série Máxima | FP32 TF32 BF16 |
Unet 3D | PyTorch | Inferência | Série Máxima | FP16 INT8 FP32 |
Unet 3D | TensorFlow | Treinamento | Série Máxima | BFloat16 FP32 |
Difusão Estável | PyTorch | Inferência | Série Flex, Série Max, Série Arc | FP16 FP32 |
Difusão Estável | TensorFlow | Inferência | Série Flexível | FP16 FP32 |
Máscara R-CNN | TensorFlow | Inferência | Série Flexível | FP32 Flutuador16 |
Máscara R-CNN | TensorFlow | Treinamento | Série Máxima | FP32 BFloat16 |
Transformador Swin | PyTorch | Inferência | Série Flexível | FP16 |
FastPitch | PyTorch | Inferência | Série Flexível | FP16 |
UNet++ | PyTorch | Inferência | Série Flexível | FP16 |
RNN-T | PyTorch | Inferência | Série Máxima | FP16 BF16 FP32 |
RNN-T | PyTorch | Treinamento | Série Máxima | FP32 BF16TF32 |
IFRNet | PyTorch | Inferência | Série Flexível | FP16 |
RIFE | PyTorch | Inferência | Série Flexível | FP16 |
Se desejar adicionar um novo script de benchmarking, use este guia.