يقدم هذا المستند نظرة عامة على TensorRT، وهو محرك استدلال يعمل بالذكاء الاصطناعي عالي الأداء من NVIDIA، وهو يوفر إمكانات عبر الأنظمة الأساسية، ويدعم واجهات برمجة متنوعة، ويسمح بتطوير المكونات الإضافية المخصصة. فيما يلي تفاصيل حول ميزاته والموارد المرتبطة به.
TensorRT عبارة عن إطار/مكتبة لمحرك استدلال الذكاء الاصطناعي عالي الأداء وشبه مفتوح المصدر تم إطلاقها بواسطة Nvidia عبر بنية nv-gpu، وهي توفر واجهات cpp/python وطرق المكونات الإضافية المحددة من قبل المستخدم، وتغطي الجوانب الرئيسية لتقنية محرك الاستدلال AI. .
TensorRT عبارة عن إطار/مكتبة لمحرك استدلال الذكاء الاصطناعي عالي الأداء وشبه مفتوح المصدر تم تطويرها بواسطة Nvidia، والتي تمتد عبر أبنية nv-gpu.
يوفر واجهات cpp/python وطرق المكونات الإضافية المحددة من قبل المستخدم، والتي تغطي الجوانب الرئيسية لتقنية محرك الاستدلال AI.
مرجع
https://docs.nvidia.com/deeplearning/tensorrt/archives/
https://developer.nvidia.com/search?page=1&sort=relevance&term=
https://github.com/HeKun-NVIDIA/TensorRT-DeveloperGuidein_Chinese/tree/main
https://docs.nvidia.com/deeplearning/tensorrt/migration-guide/index.html
https://developer.nvidia.com/zh-cn/blog/nvidia-gpu-fp8-training-inference/