รองรับเอาต์พุตสตรีมมิ่งความเร็วสูง บทสนทนาหลายรอบ การปรับใช้การกำหนดค่าเป็นศูนย์ รองรับโทเค็นหลายช่องสัญญาณ และการทำความสะอาดการติดตามเซสชันโดยอัตโนมัติ
เข้ากันได้อย่างสมบูรณ์กับอินเทอร์เฟซ ChatGPT
นอกจากนี้ยังมี API ฟรีเจ็ดรายการต่อไปนี้ที่ยินดีให้ความสนใจ:
อินเทอร์เฟซ Moonshot AI (Kimi.ai) กับ API kimi-free-api
อินเทอร์เฟซ StepChat กับ API step-free-api
อินเทอร์เฟซ Alibaba Tongyi (Qwen) กับ API qwen-free-api
อินเทอร์เฟซ Zhipu AI (Zhipu Qingyan) กับ API glm-free-api
อินเทอร์เฟซ Metaso AI (Metaso) กับ API metaso-free-api
อินเทอร์เฟซ iFlytek Spark กับ API ที่ไม่มีประกายไฟ
อินเทอร์เฟซ MiniMax (Conch AI) ไปยัง API hailuo-free-api
Reverse API ไม่เสถียร ขอแนะนำให้ไปที่เว็บไซต์อย่างเป็นทางการของ Lingxin Intelligence https://www.ai-beings.com/ เพื่อชำระเงินเพื่อใช้ API เพื่อหลีกเลี่ยงความเสี่ยงที่จะถูกแบน
องค์กรและบุคคลนี้ไม่รับการบริจาคทางการเงินหรือธุรกรรมใดๆ โครงการนี้มีไว้เพื่อการวิจัย การแลกเปลี่ยน และการเรียนรู้เท่านั้น!
มีไว้เพื่อการใช้งานส่วนตัวเท่านั้น และห้ามให้บริการภายนอกหรือใช้ในเชิงพาณิชย์เพื่อหลีกเลี่ยงแรงกดดันต่อบริการของทางการ มิฉะนั้นจะเป็นความเสี่ยงของคุณเอง!
มีไว้เพื่อการใช้งานส่วนตัวเท่านั้น และห้ามให้บริการภายนอกหรือใช้ในเชิงพาณิชย์เพื่อหลีกเลี่ยงแรงกดดันต่อบริการของทางการ มิฉะนั้นจะเป็นความเสี่ยงของคุณเอง!
มีไว้เพื่อการใช้งานส่วนตัวเท่านั้น และห้ามให้บริการภายนอกหรือใช้ในเชิงพาณิชย์เพื่อหลีกเลี่ยงแรงกดดันต่อบริการของทางการ มิฉะนั้นจะเป็นความเสี่ยงของคุณเอง!
ลิงก์นี้เป็นเพียงฟังก์ชันทดสอบชั่วคราวและไม่สามารถใช้งานได้เป็นเวลานาน โปรดปรับใช้ด้วยตนเองเพื่อการใช้งานในระยะยาว
https://udify.app/chat/LDgsbVTfyTQ000Oq
รับโทเค็นจาก echo.turing-world.com
เข้าสู่ระบบ เนื่องจาก emohaa ปิดใช้งานเครื่องมือสำหรับนักพัฒนา F12 โปรดติดตั้งปลั๊กอิน Manage LocalStorage
ก่อน จากนั้นเปิดปลั๊กอินบนหน้าปัจจุบันแล้วคลิกปุ่ม Export
เพื่อค้นหาค่า Token
ซึ่งจะใช้เป็นโทเค็นผู้ถือ ค่าของการอนุญาต: Authorization: Bearer TOKEN
คุณสามารถมอบโทเค็นสำหรับหลายบัญชี ,
ใช้ร่วมกันเพื่อมอบ:
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
หนึ่งในนั้นจะถูกเลือกทุกครั้งที่มีการร้องขอบริการ
โปรดเตรียมเซิร์ฟเวอร์ด้วย IP สาธารณะและเปิดพอร์ต 8000
ดึงภาพและเริ่มบริการ
docker run -it -d --init --name emohaa-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/emohaa-free-api:latest
ดูบันทึกการบริการแบบเรียลไทม์
docker logs -f emohaa-free-api
เริ่มบริการใหม่
docker restart emohaa-free-api
หยุดให้บริการ
docker stop emohaa-free-api
version : ' 3 '
services :
emohaa-free-api :
container_name : emohaa-free-api
image : vinlic/emohaa-free-api:latest
restart : always
ports :
- " 8000:8000 "
environment :
- TZ=Asia/Shanghai
หมายเหตุ: พื้นที่ปรับใช้บางแห่งอาจไม่สามารถเชื่อมต่อกับ emohaa ได้ หากบันทึกคอนเทนเนอร์แสดงคำขอหมดเวลาหรือไม่สามารถเชื่อมต่อได้ โปรดเปลี่ยนไปใช้พื้นที่อื่นเพื่อปรับใช้! หมายเหตุ: อินสแตนซ์คอนเทนเนอร์ของบัญชีฟรีจะหยุดทำงานโดยอัตโนมัติหลังจากไม่มีการใช้งานช่วงระยะเวลาหนึ่ง ซึ่งจะทำให้เกิดความล่าช้า 50 วินาทีขึ้นไปในคำขอครั้งถัดไป ขอแนะนำให้ตรวจสอบ Render Container Keep Alive
แยกโปรเจ็กต์นี้ไปยังบัญชี GitHub ของคุณ
ไปที่ Render และเข้าสู่ระบบบัญชี GitHub ของคุณ
สร้างบริการเว็บของคุณ (ใหม่+ -> สร้างและปรับใช้จากพื้นที่เก็บข้อมูล Git -> เชื่อมต่อโปรเจ็กต์ที่แยกของคุณ -> เลือกพื้นที่ปรับใช้ -> เลือกประเภทอินสแตนซ์เป็นฟรี -> สร้างบริการเว็บ)
หลังจากรอให้การก่อสร้างเสร็จสมบูรณ์ ให้คัดลอกชื่อโดเมนที่กำหนดและต่อ URL สำหรับการเข้าถึง
หมายเหตุ: การหมดเวลาตอบสนองคำขอสำหรับบัญชี Vercel ฟรีคือ 10 วินาที แต่โดยปกติแล้วการตอบสนองของอินเทอร์เฟซจะใช้เวลานานกว่า และคุณอาจพบข้อผิดพลาดการหมดเวลา 504 ที่ Vercel ส่งกลับ!
โปรดตรวจสอบให้แน่ใจว่าคุณได้ติดตั้งสภาพแวดล้อม Node.js ก่อน
npm i -g vercel --registry http://registry.npmmirror.com
vercel login
git clone https://github.com/LLM-Red-Team/emohaa-free-api
cd emohaa-free-api
vercel --prod
โปรดเตรียมเซิร์ฟเวอร์ด้วย IP สาธารณะและเปิดพอร์ต 8000
โปรดติดตั้งสภาพแวดล้อม Node.js และกำหนดค่าตัวแปรสภาพแวดล้อมก่อน และยืนยันว่าคำสั่งโหนดพร้อมใช้งาน
ติดตั้งการพึ่งพา
npm i
ติดตั้ง PM2 เพื่อป้องกันกระบวนการ
npm i -g pm2
คอมไพล์และสร้าง เมื่อคุณเห็นไดเร็กทอรี dist แสดงว่าบิลด์เสร็จสมบูรณ์
npm run build
เริ่มให้บริการ
pm2 start dist/index.js --name " emohaa-free-api "
ดูบันทึกการบริการแบบเรียลไทม์
pm2 logs emohaa-free-api
เริ่มบริการใหม่
pm2 reload emohaa-free-api
หยุดให้บริการ
pm2 stop emohaa-free-api
การใช้ไคลเอ็นต์การพัฒนารองต่อไปนี้รวดเร็วและง่ายกว่าในการเข้าถึงโปรเจ็กต์ซีรีส์ API ฟรี และรองรับการอัปโหลดเอกสาร/รูปภาพ!
LobeChat พัฒนาโดย Clivia https://github.com/Yanyutin753/lobe-chat
เว็บ ChatGPT https://github.com/SuYxh/chatgpt-web-sea พัฒนาโดย Guangguang@
ปัจจุบัน รองรับอินเทอร์เฟซ /v1/chat/completions
ที่เข้ากันได้กับ openai คุณสามารถใช้อินเทอร์เฟซการเข้าถึงไคลเอนต์ที่เข้ากันได้กับ openai หรือไคลเอนต์อื่น ๆ หรือใช้บริการออนไลน์ เช่น dify เพื่อเข้าถึง
อินเทอร์เฟซการสนทนาเสร็จสิ้น เข้ากันได้กับ chat-completions-api ของ openai
POST /v1/chat/เสร็จสิ้น
ส่วนหัวจำเป็นต้องตั้งค่าส่วนหัวการอนุญาต:
Authorization: Bearer [refresh_token]
ขอข้อมูล:
{
"messages" : [
{
"role" : " user " ,
"content" : "你好"
}
],
// 如果使用SSE流请设置为true,默认false
"stream" : false
}
ข้อมูลการตอบสนอง:
{
"id" : " f73f02e6-6b43-4a46-ac24-3a9ea8d15145 " ,
"model" : " emohaa " ,
"object" : " chat.completion " ,
"choices" : [
{
"index" : 0 ,
"message" : {
"role" : " assistant " ,
"content" : " 你好啊!我是Emohaa,想和我聊点什么吗? 今天心情如何? "
},
"finish_reason" : " stop "
}
],
"usage" : {
"prompt_tokens" : 1 ,
"completion_tokens" : 1 ,
"total_tokens" : 2
},
"created" : 1710603111
}
ตรวจสอบว่าโทเค็นยังมีชีวิตอยู่หรือไม่ หากมีชีวิตอยู่ไม่เป็นความจริง มิฉะนั้นจะเป็นเท็จ
POST /โทเค็น/เช็ค
ขอข้อมูล:
{
"token" : " eyJhbGciOiJIUzUxMiIsInR5cCI6IkpXVCJ9... "
}
ข้อมูลการตอบสนอง:
{
"live" : true
}
หากคุณใช้ Nginx Reverse proxy kimi-free-api โปรดเพิ่มรายการการกำหนดค่าต่อไปนี้เพื่อปรับเอฟเฟกต์เอาต์พุตของสตรีมให้เหมาะสมและปรับประสบการณ์ให้เหมาะสม
# 关闭代理缓冲。当设置为off时,Nginx会立即将客户端请求发送到后端服务器,并立即将从后端服务器接收到的响应发送回客户端。
proxy_buffering off ;
# 启用分块传输编码。分块传输编码允许服务器为动态生成的内容分块发送数据,而不需要预先知道内容的大小。
chunked_transfer_encoding on ;
# 开启TCP_NOPUSH,这告诉Nginx在数据包发送到客户端之前,尽可能地发送数据。这通常在sendfile使用时配合使用,可以提高网络效率。
tcp_nopush on ;
# 开启TCP_NODELAY,这告诉Nginx不延迟发送数据,立即发送小数据包。在某些情况下,这可以减少网络的延迟。
tcp_nodelay on ;
# 设置保持连接的超时时间,这里设置为120秒。如果在这段时间内,客户端和服务器之间没有进一步的通信,连接将被关闭。
keepalive_timeout 120 ;
เนื่องจากด้านอนุมานไม่มี kimi-free-api อีกต่อไป จึงไม่สามารถนับโทเค็นได้และจะถูกส่งกลับเป็นตัวเลขคงที่