LLM API
1.0.0
API에는 세 가지 주요 경로가 있습니다.
서비스를 시작하려면
.env
파일을 만들고 OPENAI_API_KEY vim .env
, OPENAI_API_KEY=<key>
추가하세요.docker build -t chat_api_service .
docker run -d -p 8000:8000 chat_api_service
사용하여 docker 컨테이너를 시작합니다. API를 활용하려면 이 흐름을 따르세요.
curl http://127.0.0.1:8000?username=TR
검색합니다.curl -X PUT http://127.0.0.1:8000/chat/<session_id> -H "Content-Type: application/json" -d '{"payload": "Hello! What is your name?"}'
curl http://127.0.0.1:8000/chat_history/<session_id>
또는 API를 ping하는 더 나은 도구는 Postman입니다. 제가 개발하면서 활용했던 도구입니다.
테스트 도구 모음을 실행하려면 대화형 모드에서 Docker 컨테이너를 시작하세요. 테스트를 실행하려면 Redis 서버와 Uvicorn 서버가 실행되고 있어야 합니다.
docker run -it --rm -p 8000:8000 --entrypoint bash chat_api_service
launch.sh
백그라운드 프로세스로 실행합니다 ./launch.sh &
python -m pytest tests
실행 API의 향후 개선 사항은 다음과 같습니다.