此存儲庫包含預訓練模型、示例腳本、最佳實踐和分步教程的鏈接,這些模型均經過英特爾優化,可在英特爾® 至強® 可擴展處理器和英特爾® 數據中心 GPU 上運行。
用於運行工作負載的容器可以在英特爾® AI 容器中找到。
Jupyter 筆記本中的英特爾® AI 參考模型也可用於列出的工作負載
英特爾透過為上游計畫做出貢獻來優化 TensorFlow* 和 PyTorch* 等流行的深度學習框架。其他優化內建於插件/擴充中,例如適用於 Pytorch* 的英特爾擴充和適用於 TensorFlow* 的英特爾擴充。針對常見資料集運行的流行神經網路模型是驅動這些最佳化的目標工作負載。
英特爾® AI 參考模型儲存庫(及相關容器)的目的是快速複製完整的軟體環境,展示每個目標模型/資料集組合的最著名效能。當在優化配置的硬體環境中執行時,這些軟體環境展示了英特爾平台的人工智慧功能。
免責聲明:這些腳本不適用於對英特爾平台進行基準測試。有關特定英特爾平台的任何性能和/或基準測試信息,請訪問 https://www.intel.ai/blog。
英特爾致力於尊重人權並避免對人權造成或促成不利影響。請參閱英特爾的全球人權原則。英特爾的產品和軟體僅用於不會對人權造成或促成不利影響的應用。
英特爾® AI 參考模型根據 Apache 許可證版本 2.0 授權。
如果英特爾引用或使用本網站上的工具或程式碼存取任何公開資料集,則這些資料集由指定為資料來源的第三方提供。英特爾不創建這些數據或數據集,也不保證其準確性或品質。透過存取公共資料集,您同意與這些資料集相關的條款,並且您的使用符合適用的許可。
請檢查資料集目錄中英特爾® AI 參考模型中所使用的資料集清單。
英特爾明確否認任何公共資料集的準確性、充分性或完整性,並且對資料中的任何錯誤、遺漏或缺陷或對資料的任何依賴不承擔任何責任。英特爾對您使用公共資料集相關的任何責任或損害不承擔任何責任。
下表中的模型文件包含有關運行每個模型的先決條件的資訊。模型腳本在 Linux 上運行。某些型號還可以在 Windows 上使用裸機運作。有關 Windows 支援的詳細資訊和型號列表,請參閱此處的文件。
可在 Sapphire Rapids 上執行的說明。
為了在英特爾® 資料中心 GPU Flex 和 Max 系列上獲得最佳效能,請查看支援的工作負載清單。它提供了使用適用於 PyTorch 的英特爾(R) 擴展或適用於 TensorFlow 的英特爾(R) 擴展運行推理和訓練的說明。
模型 | 框架 | 模式 | 模型文檔 | 基準/測試資料集 |
---|---|---|---|---|
ResNet 50v1.5 藍寶石急流 | TensorFlow | 推理 | Int8 FP32 BFloat16 BFloat32 | 圖像網 2012 |
ResNet 50v1.5 藍寶石急流 | TensorFlow | 訓練 | FP32 BFloat16 BFloat32 | 圖像網 2012 |
殘差網路 50 | 火炬 | 推理 | Int8 FP32 BFloat16 BFloat32 | [圖像網 2012] |
殘差網路 50 | 火炬 | 訓練 | FP32 BFloat16 BFloat32 | [圖像網 2012] |
視覺變壓器 | 火炬 | 推理 | FP32 BFloat16 BFloat32 FP16 INT8 | [圖像網 2012] |
模型 | 框架 | 模式 | 模型文檔 | 基準/測試資料集 |
---|---|---|---|---|
3D U 網 | TensorFlow | 推理 | FP32 BFloat16 Int8 | 2018 年小子們 |
模型 | 框架 | 模式 | 模型文檔 | 基準/測試資料集 |
---|---|---|---|---|
BERT 大型藍寶石急流 | 張量流 | 推理 | FP32 BFloat16 Int8 BFloat32 | 隊 |
BERT 大型藍寶石急流 | 張量流 | 訓練 | FP32 BFloat16 BFloat32 | 隊 |
BERT 大號(抱臉) | TensorFlow | 推理 | FP32 FP16 BFloat16 BFloat32 | 隊 |
BERT 大號 | 火炬 | 推理 | FP32 Int8 BFloat16 BFloat32 | BERT 大 SQuAD1.1 |
BERT 大號 | 火炬 | 訓練 | FP32 BFloat16 BFloat32 | 預處理的文字資料集 |
DistilBERT 基礎 | 火炬 | 推理 | FP32 BF32 BF16Int8-FP32 Int8-BFloat16 BFloat32 | DistilBERT 基礎 SQuAD1.1 |
RNN-T | 火炬 | 推理 | FP32 BFloat16 BFloat32 | RNN-T 資料集 |
RNN-T | 火炬 | 訓練 | FP32 BFloat16 BFloat32 | RNN-T 資料集 |
GPTJ 6B | 火炬 | 推理 | FP32 FP16 BFloat16 BF32 INT8 | |
GPTJ 6B MLPerf | 火炬 | 推理 | INT4 | CNN-每日郵報資料集 |
美洲駝2 7B | 火炬 | 推理 | FP32 FP16 BFloat16 BF32 INT8 | |
美洲駝2 7B | 火炬 | 訓練 | FP32 FP16 BFloat16 BF32 | |
美洲駝2 13B | 火炬 | 推理 | FP32 FP16 BFloat16 BF32 INT8 | |
聊天GLMv3 6B | 火炬 | 推理 | FP32 FP16 BFloat16 BF32 INT8 |
模型 | 框架 | 模式 | 模型文檔 | 基準/測試資料集 |
---|---|---|---|---|
伯特 | TensorFlow | 推理 | FP32 | 物料循環過程控制 |
模型 | 框架 | 模式 | 模型文檔 | 基準/測試資料集 |
---|---|---|---|---|
Mask R-CNN | 火炬 | 推理 | FP32 BFloat16 BFloat32 | 可可2017 |
Mask R-CNN | 火炬 | 訓練 | FP32 BFloat16 BFloat32 | 可可2017 |
SSD-ResNet34 | 火炬 | 推理 | FP32 Int8 BFloat16 BFloat32 | 可可2017 |
SSD-ResNet34 | 火炬 | 訓練 | FP32 BFloat16 BFloat32 | 可可2017 |
優洛V7 | 火炬 | 推理 | Int8 FP32 FP16 BFloat16 BFloat32 | [COCO 2017](/models_v2/pytorch/yolov7/inference/cpu/README.md## 準備資料集) |
模型 | 框架 | 模式 | 模型文檔 | 基準/測試資料集 |
---|---|---|---|---|
寬而深 | TensorFlow | 推理 | FP32 | 人口普查收入資料集 |
DLRM | 火炬 | 推理 | FP32 Int8 BFloat16 BFloat32 | Criteo 太字節 |
DLRM | 火炬 | 訓練 | FP32 BFloat16 BFloat32 | Criteo 太字節 |
DLRM v2 | 火炬 | 推理 | FP32 FP16 BFloat16 BFloat32 Int8 | Criteo 1TB 點擊日誌資料集 |
模型 | 框架 | 模式 | 模型文檔 | 基準/測試資料集 |
---|---|---|---|---|
穩定擴散 | TensorFlow | 推理 | FP32 BFloat16 FP16 | COCO 2017 驗證資料集 |
穩定擴散 | 火炬 | 推理 | FP32 BFloat16 FP16 BFloat32 Int8-FP32 Int8-BFloat16 | COCO 2017 驗證資料集 |
穩定擴散 | 火炬 | 訓練 | FP32 BFloat16 FP16 BFloat32 | 貓 圖片 |
潛在一致性模型(LCM) | 火炬 | 推理 | FP32 BFloat16 FP16 BFloat32 Int8-FP32 Int8-BFloat16 | COCO 2017 驗證資料集 |
模型 | 框架 | 模式 | 模型文檔 | 基準/測試資料集 |
---|---|---|---|---|
圖聖人 | TensorFlow | 推理 | FP32 BFloat16 FP16 Int8 BFloat32 | 蛋白質 蛋白質相互作用 |
*表示模型屬於MLPerf模型,將獲得長期支持。
模型 | 框架 | 模式 | 圖形處理器類型 | 模型文檔 |
---|---|---|---|---|
殘差網路 50v1.5 | TensorFlow | 推理 | 彈性系列 | Float32 TF32 Float16 BFloat16 Int8 |
ResNet 50 v1.5 | TensorFlow | 訓練 | 最大系列 | BFloat16 FP32 |
ResNet 50 v1.5 | 火炬 | 推理 | Flex系列、Max系列、Arc系列 | Int8 FP32 FP16 TF32 |
ResNet 50 v1.5 | 火炬 | 訓練 | Max系列、Arc系列 | BFloat16 TF32 FP32 |
蒸餾伯特 | 火炬 | 推理 | Flex系列、Max系列 | FP32 FP16 BF16 TF32 |
DLRM v1 | 火炬 | 推理 | 彈性系列 | FP16 FP32 |
SSD-MobileNet* | 火炬 | 推理 | 圓弧系列 | INT8 FP16 FP32 |
高效率網路 | 火炬 | 推理 | 彈性系列 | FP16 BF16 FP32 |
高效率網路 | TensorFlow | 推理 | 彈性系列 | FP16 |
FB網路 | 火炬 | 推理 | 彈性系列 | FP16 BF16 FP32 |
寬深大數據集 | TensorFlow | 推理 | 彈性系列 | FP16 |
優洛V5 | 火炬 | 推理 | 彈性系列 | FP16 |
BERT 大號 | 火炬 | 推理 | Max系列、Arc系列 | BFloat16 FP32 FP16 |
BERT 大號 | 火炬 | 訓練 | Max系列、Arc系列 | BFloat16 FP32 TF32 |
BERT 大號 | TensorFlow | 訓練 | 最大系列 | BFloat16 TF32 FP32 |
DLRM v2 | 火炬 | 推理 | 最大系列 | FP32 BF16 |
DLRM v2 | 火炬 | 訓練 | 最大系列 | FP32 TF32 BF16 |
3D-Unet | 火炬 | 推理 | 最大系列 | FP16 INT8 FP32 |
3D-Unet | TensorFlow | 訓練 | 最大系列 | BFloat16 FP32 |
穩定擴散 | 火炬 | 推理 | Flex系列、Max系列、Arc系列 | FP16 FP32 |
穩定擴散 | TensorFlow | 推理 | 彈性系列 | FP16 FP32 |
Mask R-CNN | TensorFlow | 推理 | 彈性系列 | FP32 浮點16 |
Mask R-CNN | TensorFlow | 訓練 | 最大系列 | FP32 BFloat16 |
斯溫變壓器 | 火炬 | 推理 | 彈性系列 | FP16 |
快投 | 火炬 | 推理 | 彈性系列 | FP16 |
大學網++ | 火炬 | 推理 | 彈性系列 | FP16 |
RNN-T | 火炬 | 推理 | 最大系列 | FP16 BF16 FP32 |
RNN-T | 火炬 | 訓練 | 最大系列 | FP32 BF16 TF32 |
IFR網 | 火炬 | 推理 | 彈性系列 | FP16 |
RIFE | 火炬 | 推理 | 彈性系列 | FP16 |
如果您想新增新的基準測試腳本,請使用本指南。