Este documento proporciona una descripción general de TensorRT, un motor de inferencia de IA de alto rendimiento de NVIDIA. Ofrece capacidades multiplataforma, admite varias interfaces de programación y permite el desarrollo de complementos personalizados. A continuación se detallan sus características y recursos asociados.
TensorRT es un marco/biblioteca de motor de inferencia de IA de alto rendimiento y código semiabierto lanzado por Nvidia en la arquitectura nv-gpu. Proporciona interfaces cpp/python y métodos de complemento definidos por el usuario, que cubren los aspectos principales de la tecnología del motor de inferencia de IA. .
TensorRT es un marco/biblioteca de motor de inferencia de IA de alto rendimiento y código semiabierto desarrollado por Nvidia, que abarca arquitecturas nv-gpu.
Proporciona interfaces cpp/python y métodos de complementos definidos por el usuario, que cubren los aspectos principales de la tecnología del motor de inferencia de IA.
Referencia
https://docs.nvidia.com/deeplearning/tensorrt/archives/
https://developer.nvidia.com/search?page=1&sort=relevance&term=
https://github.com/HeKun-NVIDIA/TensorRT-DeveloperGuidein_Chinese/tree/main
https://docs.nvidia.com/deeplearning/tensorrt/migration-guide/index.html
https://developer.nvidia.com/zh-cn/blog/nvidia-gpu-fp8-training-inference/