TensorFlow Serving هو نظام تقديم مرن وعالي الأداء لنماذج التعلم الآلي، وهو مصمم لبيئات الإنتاج. إنه يتعامل مع الجانب الاستدلالي للتعلم الآلي، وأخذ النماذج بعد التدريب وإدارة حياتهم، وتزويد العملاء بإمكانية الوصول إلى الإصدارات عبر جدول بحث عالي الأداء ومعدود بالمراجع. يوفر TensorFlow Serving تكاملًا خارج الصندوق مع نماذج TensorFlow، ولكن يمكن توسيعه بسهولة لخدمة أنواع أخرى من النماذج والبيانات.
لملاحظة بعض الميزات:
# Download the TensorFlow Serving Docker image and repo
docker pull tensorflow/serving
git clone https://github.com/tensorflow/serving
# Location of demo models
TESTDATA= " $( pwd ) /serving/tensorflow_serving/servables/tensorflow/testdata "
# Start TensorFlow Serving container and open the REST API port
docker run -t --rm -p 8501:8501
-v " $TESTDATA /saved_model_half_plus_two_cpu:/models/half_plus_two "
-e MODEL_NAME=half_plus_two
tensorflow/serving &
# Query the model using the predict API
curl -d ' {"instances": [1.0, 2.0, 5.0]} '
-X POST http://localhost:8501/v1/models/half_plus_two:predict
# Returns => { "predictions": [2.5, 3.0, 4.5] }
ارجع إلى موقع وثائق Tensorflow الرسمي للحصول على برنامج تعليمي كامل لتدريب نموذج Tensorflow وخدمته.
الطريقة الأسهل والأكثر مباشرة لاستخدام TensorFlow Serving هي باستخدام صور Docker. نوصي بشدة بهذا المسار إلا إذا كانت لديك احتياجات محددة لم تتم معالجتها عن طريق التشغيل في حاوية.
من أجل خدمة نموذج Tensorflow، ما عليك سوى تصدير SavedModel من برنامج Tensorflow الخاص بك. SavedModel هو تنسيق تسلسلي محكم ومحايد للغة وقابل للاسترداد يمكّن الأنظمة والأدوات عالية المستوى من إنتاج نماذج TensorFlow واستهلاكها وتحويلها.
يرجى الرجوع إلى وثائق Tensorflow للحصول على تعليمات مفصلة حول كيفية تصدير SavedModels.
تعتبر بنية Tensorflow Serving معيارية للغاية. يمكنك استخدام بعض الأجزاء بشكل فردي (مثل جدولة الدُفعات) و/أو توسيعها لخدمة حالات الاستخدام الجديدة.
إذا كنت ترغب في المساهمة في خدمة TensorFlow، فتأكد من مراجعة إرشادات المساهمة.
يرجى الرجوع إلى موقع TensorFlow الرسمي لمزيد من المعلومات.