LLM API
1.0.0
API有3个主要途径
启动服务
.env
文件并添加 OPENAI_API_KEY vim .env
, OPENAI_API_KEY=<key>
docker build -t chat_api_service .
docker run -d -p 8000:8000 chat_api_service
按照此流程使用 API
curl http://127.0.0.1:8000?username=TR
curl -X PUT http://127.0.0.1:8000/chat/<session_id> -H "Content-Type: application/json" -d '{"payload": "Hello! What is your name?"}'
curl http://127.0.0.1:8000/chat_history/<session_id>
另外,Postman 是一个更好的 ping API 工具;这是我在开发过程中使用的工具。
以交互模式启动 docker 容器来运行测试套件。 Redis 服务器和 Uvicorn 服务器必须运行才能执行测试。
docker run -it --rm -p 8000:8000 --entrypoint bash chat_api_service
launch.sh
作为后台进程执行./launch.sh &
python -m pytest tests
API 的未来增强包括