LLM API
1.0.0
API には 3 つの主要なルートがあります
サービスを開始するには
.env
ファイルを作成し、 OPENAI_API_KEY vim .env
, OPENAI_API_KEY=<key>
を追加します。docker build -t chat_api_service .
docker run -d -p 8000:8000 chat_api_service
APIを利用するにはこの流れに従ってください
curl http://127.0.0.1:8000?username=TR
curl -X PUT http://127.0.0.1:8000/chat/<session_id> -H "Content-Type: application/json" -d '{"payload": "Hello! What is your name?"}'
curl http://127.0.0.1:8000/chat_history/<session_id>
あるいは、API に ping を送信するためのより良いツールは Postman です。開発時に利用したツールです。
対話モードで Docker コンテナを起動して、テスト スイートを実行します。テストを実行するには、Redis サーバーと Uvicorn サーバーが実行されている必要があります。
docker run -it --rm -p 8000:8000 --entrypoint bash chat_api_service
launch.sh
バックグラウンドプロセスとして実行します./launch.sh &
python -m pytest tests
API の今後の機能拡張には以下が含まれます。