Dokumen ini memberikan ikhtisar TensorRT, mesin inferensi AI berperforma tinggi dari NVIDIA. Dokumen ini menawarkan kemampuan lintas platform, mendukung berbagai antarmuka pemrograman, dan memungkinkan pengembangan plugin khusus.
TensorRT adalah framework/library mesin inferensi AI semi-terbuka berperforma tinggi yang diluncurkan oleh Nvidia di seluruh arsitektur nv-gpu. TensorRT menyediakan antarmuka cpp/python dan metode plug-in yang ditentukan pengguna, yang mencakup aspek utama teknologi mesin inferensi AI. .
TensorRT adalah framework/library mesin inferensi AI semi-terbuka berperforma tinggi yang dikembangkan oleh Nvidia, yang mencakup seluruh arsitektur nv-gpu.
Menyediakan antarmuka cpp/python dan metode plugin yang ditentukan pengguna, yang mencakup aspek utama teknologi mesin inferensi AI.
Referensi
https://docs.nvidia.com/deeplearning/tensorrt/archives/
https://developer.nvidia.com/search?page=1&sort=relevance&term=
https://github.com/HeKun-NVIDIA/TensorRT-DeveloperGuidein_Chinese/tree/main
https://docs.nvidia.com/deeplearning/tensorrt/migration-guide/index.html
https://developer.nvidia.com/zh-cn/blog/nvidia-gpu-fp8-training-inference/