LLM API
1.0.0
API有3個主要途徑
啟動服務
.env
檔案並新增 OPENAI_API_KEY vim .env
, OPENAI_API_KEY=<key>
docker build -t chat_api_service .
docker run -d -p 8000:8000 chat_api_service
按照此流程使用 API
curl http://127.0.0.1:8000?username=TR
curl -X PUT http://127.0.0.1:8000/chat/<session_id> -H "Content-Type: application/json" -d '{"payload": "Hello! What is your name?"}'
curl http://127.0.0.1:8000/chat_history/<session_id>
另外,Postman 是更好的 ping API 工具;這是我在開發過程中使用的工具。
以互動模式啟動 docker 容器來執行測試套件。 Redis 伺服器和 Uvicorn 伺服器必須執行才能執行測試。
docker run -it --rm -p 8000:8000 --entrypoint bash chat_api_service
launch.sh
作為後台程序執行./launch.sh &
python -m pytest tests
API 的未來增強包括