LLM API
1.0.0
Die API verfügt über drei Hauptrouten
Um den Dienst zu starten
.env
Datei im Standardverzeichnis des Projekts und fügen Sie Ihren OPENAI_API_KEY vim .env
, OPENAI_API_KEY=<key>
hinzudocker build -t chat_api_service .
docker run -d -p 8000:8000 chat_api_service
Befolgen Sie diesen Ablauf, um die API zu nutzen
curl http://127.0.0.1:8000?username=TR
abrufencurl -X PUT http://127.0.0.1:8000/chat/<session_id> -H "Content-Type: application/json" -d '{"payload": "Hello! What is your name?"}'
curl http://127.0.0.1:8000/chat_history/<session_id>
abAlternativ wäre Postman ein besseres Tool zum Pingen der API. Dies ist das Tool, das ich während der Entwicklung verwendet habe.
Starten Sie den Docker-Container im interaktiven Modus, um die Testsuite auszuführen. Damit die Tests ausgeführt werden können, müssen der Redis-Server und die Uvicorn-Server ausgeführt werden.
docker run -it --rm -p 8000:8000 --entrypoint bash chat_api_service
launch.sh
als Hintergrundprozess aus ./launch.sh &
python -m pytest tests
aus Zukünftige Verbesserungen der API umfassen: