В этом документе представлен обзор TensorRT, высокопроизводительного механизма вывода искусственного интеллекта от NVIDIA. Он предлагает кроссплатформенные возможности, поддерживает различные программные интерфейсы и позволяет разрабатывать собственные плагины. Ниже приведены подробные сведения о его функциях и связанных с ними ресурсах.
TensorRT — это высокопроизводительная среда/библиотека механизма вывода искусственного интеллекта с полуоткрытым исходным кодом, запущенная Nvidia для архитектуры nv-gpu. Он предоставляет интерфейсы cpp/python и определяемые пользователем методы подключаемых модулей, охватывающие основные аспекты технологии механизма вывода искусственного интеллекта. .
TensorRT — это высокопроизводительная среда/библиотека механизма вывода искусственного интеллекта с полуоткрытым исходным кодом, разработанная Nvidia и охватывающая все архитектуры nv-gpu.
Предоставляет интерфейсы cpp/python и определяемые пользователем методы плагинов, охватывающие основные аспекты технологии механизма вывода AI.
Ссылка
https://docs.nvidia.com/deeplearning/tensorrt/archives/
https://developer.nvidia.com/search?page=1&sort=relevance&term=
https://github.com/HeKun-NVIDIA/TensorRT-DeveloperGuidein_Chinese/tree/main
https://docs.nvidia.com/deeplearning/tensorrt/migration-guide/index.html
https://developer.nvidia.com/zh-cn/blog/nvidia-gpu-fp8-training-inference/