LLM API
1.0.0
API имеет три основных маршрута
Чтобы запустить сервис
.env
в каталоге проекта по умолчанию и добавьте свой OPENAI_API_KEY vim .env
, OPENAI_API_KEY=<key>
docker build -t chat_api_service .
docker run -d -p 8000:8000 chat_api_service
Следуйте этому потоку, чтобы использовать API
curl http://127.0.0.1:8000?username=TR
curl -X PUT http://127.0.0.1:8000/chat/<session_id> -H "Content-Type: application/json" -d '{"payload": "Hello! What is your name?"}'
curl http://127.0.0.1:8000/chat_history/<session_id>
Альтернативно, лучшим инструментом для проверки связи с API может быть Postman; Это инструмент, который я использовал во время разработки.
Запустите Docker-контейнер в интерактивном режиме, чтобы запустить набор тестов. Для выполнения тестов должны быть запущены серверы Redis и Uvicorn.
docker run -it --rm -p 8000:8000 --entrypoint bash chat_api_service
launch.sh
в качестве фонового процесса ./launch.sh &
python -m pytest tests
Будущие улучшения API включают в себя