이 문서는 NVIDIA의 고성능 AI 추론 엔진인 TensorRT에 대한 개요를 제공합니다. 이 엔진은 크로스 플랫폼 기능을 제공하고 다양한 프로그래밍 인터페이스를 지원하며 사용자 정의 플러그인 개발을 허용합니다. 다음은 해당 기능 및 관련 리소스에 대한 세부정보입니다.
TensorRT는 nv-gpu 아키텍처 전반에 걸쳐 Nvidia가 출시한 세미 오픈 소스 고성능 AI 추론 엔진 프레임워크/라이브러리로, AI 추론 엔진 기술의 주요 측면을 다루는 cpp/python 인터페이스와 사용자 정의 플러그인 방법을 제공합니다. .
TensorRT는 Nvidia가 개발한 세미 오픈 소스 고성능 AI 추론 엔진 프레임워크/라이브러리로, nv-gpu 아키텍처에 걸쳐 있습니다.
AI 추론 엔진 기술의 주요 측면을 다루는 cpp/python 인터페이스와 사용자 정의 플러그인 방법을 제공합니다.
참조
https://docs.nvidia.com/deeplearning/tensorrt/archives/
https://developer.nvidia.com/search?page=1&sort=relevance&term=
https://github.com/HeKun-NVIDIA/TensorRT-DeveloperGuidein_China/tree/main
https://docs.nvidia.com/deeplearning/tensorrt/migration-guide/index.html
https://developer.nvidia.com/zh-cn/blog/nvidia-gpu-fp8-training-inference/