このドキュメントでは、NVIDIA の高性能 AI 推論エンジンである TensorRT の概要を説明します。TensorRT は、クロスプラットフォーム機能を提供し、さまざまなプログラミング インターフェイスをサポートし、カスタム プラグインの開発を可能にします。その機能と関連リソースの詳細を以下に示します。
TensorRT は、Nvidia が nv-gpu アーキテクチャ上で立ち上げたセミオープンソースの高性能 AI 推論エンジン フレームワーク/ライブラリであり、AI 推論エンジン テクノロジの主要な側面をカバーする cpp/Python インターフェイスとユーザー定義のプラグイン メソッドを提供します。 。
TensorRT は、Nvidia によって開発されたセミオープンソースの高性能 AI 推論エンジン フレームワーク/ライブラリであり、nv-gpu アーキテクチャにまたがります。
cpp/python インターフェイスとユーザー定義のプラグイン メソッドを提供し、AI 推論エンジン テクノロジーの主要な側面をカバーします。
参照
https://docs.nvidia.com/deeplearning/tensorrt/archives/
https://developer.nvidia.com/search?page=1&sort=relevance&term=
https://github.com/HeKun-NVIDIA/TensorRT-DeveloperGuidein_ Chinese/tree/main
https://docs.nvidia.com/deeplearning/tensorrt/migration-guide/index.html
https://developer.nvidia.com/zh-cn/blog/nvidia-gpu-fp8-training-inference/