Este documento fornece uma visão geral do TensorRT, um mecanismo de inferência de IA de alto desempenho da NVIDIA. Ele oferece recursos de plataforma cruzada, oferece suporte a várias interfaces de programação e permite o desenvolvimento de plug-ins personalizados.
TensorRT é uma estrutura/biblioteca de mecanismo de inferência de IA de alto desempenho e código aberto lançada pela Nvidia em toda a arquitetura nv-gpu. Ele fornece interfaces cpp/python e métodos de plug-in definidos pelo usuário, cobrindo os principais aspectos da tecnologia de mecanismo de inferência de IA. .
TensorRT é uma estrutura/biblioteca de mecanismo de inferência de IA de alto desempenho e código aberto, desenvolvida pela Nvidia, que abrange arquiteturas nv-gpu.
Fornece interfaces cpp/python e métodos de plug-in definidos pelo usuário, cobrindo os principais aspectos da tecnologia de mecanismo de inferência de IA.
Referência
https://docs.nvidia.com/deeplearning/tensorrt/archives/
https://developer.nvidia.com/search?page=1&sort=relevance&term=
https://github.com/HeKun-NVIDIA/TensorRT-DeveloperGuidein_Chinese/tree/main
https://docs.nvidia.com/deeplearning/tensorrt/migration-guide/index.html
https://developer.nvidia.com/zh-cn/blog/nvidia-gpu-fp8-training-inference/