LLM API
1.0.0
API มีสามเส้นทางหลัก
เพื่อเปิดให้บริการ
.env
ในไดเร็กทอรีเริ่มต้นของโปรเจ็กต์และเพิ่ม OPENAI_API_KEY vim .env
, OPENAI_API_KEY=<key>
docker build -t chat_api_service .
docker run -d -p 8000:8000 chat_api_service
ทำตามขั้นตอนนี้เพื่อใช้ API
curl http://127.0.0.1:8000?username=TR
curl -X PUT http://127.0.0.1:8000/chat/<session_id> -H "Content-Type: application/json" -d '{"payload": "Hello! What is your name?"}'
curl http://127.0.0.1:8000/chat_history/<session_id>
อีกทางหนึ่ง เครื่องมือที่ดีกว่าในการ ping API ก็คือบุรุษไปรษณีย์ นี่คือเครื่องมือที่ฉันใช้ระหว่างการพัฒนา
เปิดใช้คอนเทนเนอร์นักเทียบท่าในโหมดโต้ตอบเพื่อเรียกใช้ชุดทดสอบ เซิร์ฟเวอร์ Redis และเซิร์ฟเวอร์ Uvicorn ต้องทำงานเพื่อให้การทดสอบดำเนินการ
docker run -it --rm -p 8000:8000 --entrypoint bash chat_api_service
launch.sh
เป็นกระบวนการพื้นหลัง ./launch.sh &
python -m pytest tests
การปรับปรุง API ในอนาคตประกอบด้วย