LLM API
1.0.0
A API tem três rotas principais
Para iniciar o serviço
.env
no diretório padrão do projeto e adicione seu OPENAI_API_KEY vim .env
, OPENAI_API_KEY=<key>
docker build -t chat_api_service .
docker run -d -p 8000:8000 chat_api_service
Siga este fluxo para utilizar a API
curl http://127.0.0.1:8000?username=TR
curl -X PUT http://127.0.0.1:8000/chat/<session_id> -H "Content-Type: application/json" -d '{"payload": "Hello! What is your name?"}'
curl http://127.0.0.1:8000/chat_history/<session_id>
Alternativamente, uma ferramenta melhor para executar ping na API seria o Postman; Esta é a ferramenta que utilizei durante o desenvolvimento.
Inicie o contêiner docker no modo interativo para executar o conjunto de testes. O servidor Redis e os servidores Uvicorn devem estar em execução para que os testes sejam executados.
docker run -it --rm -p 8000:8000 --entrypoint bash chat_api_service
launch.sh
como um processo em segundo plano ./launch.sh &
python -m pytest tests
Aprimoramentos futuros na API incluem