Dieses Dokument bietet einen Überblick über TensorRT, eine leistungsstarke KI-Inferenz-Engine von NVIDIA. Sie bietet plattformübergreifende Funktionen, unterstützt verschiedene Programmierschnittstellen und ermöglicht die Entwicklung benutzerdefinierter Plugins. Nachfolgend finden Sie Details zu ihren Funktionen und zugehörigen Ressourcen.
TensorRT ist ein von Nvidia für die NV-GPU-Architektur eingeführtes Semi-Open-Source-Hochleistungs-KI-Inferenz-Engine-Framework/-Bibliothek. Es bietet CPP/Python-Schnittstellen und benutzerdefinierte Plug-in-Methoden, die die Hauptaspekte der KI-Inferenz-Engine-Technologie abdecken .
TensorRT ist ein von Nvidia entwickeltes Semi-Open-Source-Framework/eine Bibliothek für leistungsstarke KI-Inferenz-Engines, das sich über alle NV-GPU-Architekturen erstreckt.
Bietet CPP/Python-Schnittstellen und benutzerdefinierte Plugin-Methoden, die die Hauptaspekte der KI-Inferenz-Engine-Technologie abdecken.
Referenz
https://docs.nvidia.com/deeplearning/tensorrt/archives/
https://developer.nvidia.com/search?page=1&sort=relevance&term=
https://github.com/HeKun-NVIDIA/TensorRT-DeveloperGuidein_Chinese/tree/main
https://docs.nvidia.com/deeplearning/tensorrt/migration-guide/index.html
https://developer.nvidia.com/zh-cn/blog/nvidia-gpu-fp8-training-inference/