serving
2.18.0
TensorFlow Serving 是一種靈活、高效能的機器學習模式服務系統,專為生產環境而設計。它涉及機器學習的推理方面,在訓練後獲取模型並管理其生命週期,透過高效能、引用計數的查找表為客戶提供版本化存取。 TensorFlow Serving 提供與 TensorFlow 模型的開箱即用集成,但可以輕鬆擴展以服務其他類型的模型和資料。
注意幾個特點:
# Download the TensorFlow Serving Docker image and repo
docker pull tensorflow/serving
git clone https://github.com/tensorflow/serving
# Location of demo models
TESTDATA= " $( pwd ) /serving/tensorflow_serving/servables/tensorflow/testdata "
# Start TensorFlow Serving container and open the REST API port
docker run -t --rm -p 8501:8501
-v " $TESTDATA /saved_model_half_plus_two_cpu:/models/half_plus_two "
-e MODEL_NAME=half_plus_two
tensorflow/serving &
# Query the model using the predict API
curl -d ' {"instances": [1.0, 2.0, 5.0]} '
-X POST http://localhost:8501/v1/models/half_plus_two:predict
# Returns => { "predictions": [2.5, 3.0, 4.5] }
請參閱官方 Tensorflow 文件網站,以取得訓練和服務 Tensorflow 模型的完整教學。
使用 TensorFlow Serving 最簡單、最直接的方法是使用 Docker 映像。我們強烈推薦此路線,除非您有無法透過在容器中運行來解決的特定需求。
為了提供 Tensorflow 模型,只需從 Tensorflow 程式中匯出 SavedModel 即可。 SavedModel 是一種語言中立、可恢復、密封的序列化格式,使更高層級的系統和工具能夠產生、使用和轉換 TensorFlow 模型。
有關如何匯出 SavedModel 的詳細說明,請參閱 Tensorflow 文件。
Tensorflow Serving 的架構是高度模組化的。您可以單獨使用某些部分(例如批量調度)和/或擴展它以服務新的用例。
如果您想為 TensorFlow Serving 做出貢獻,請務必查看貢獻指南。
請參閱 TensorFlow 官方網站以了解更多資訊。