Ce document donne un aperçu de TensorRT, un moteur d'inférence d'IA hautes performances de NVIDIA. Il offre des fonctionnalités multiplateformes, prend en charge diverses interfaces de programmation et permet le développement de plugins personnalisés. Vous trouverez ci-dessous des détails sur ses fonctionnalités et les ressources associées.
TensorRT est un framework/bibliothèque de moteur d'inférence d'IA hautes performances semi-open source lancé par Nvidia sur l'architecture nv-gpu. Il fournit des interfaces cpp/python et des méthodes de plug-in définies par l'utilisateur, couvrant les principaux aspects de la technologie du moteur d'inférence d'IA. .
TensorRT est un framework/bibliothèque de moteur d'inférence d'IA hautes performances semi-open source développé par Nvidia, qui s'étend sur les architectures nv-gpu.
Fournit des interfaces cpp/python et des méthodes de plug-in définies par l'utilisateur, couvrant les principaux aspects de la technologie du moteur d'inférence IA.
Référence
https://docs.nvidia.com/deeplearning/tensorrt/archives/
https://developer.nvidia.com/search?page=1&sort=relevance&term=
https://github.com/HeKun-NVIDIA/TensorRT-DeveloperGuidein_Chinese/tree/main
https://docs.nvidia.com/deeplearning/tensorrt/migration-guide/index.html
https://developer.nvidia.com/zh-cn/blog/nvidia-gpu-fp8-training-inference/