Unterstützt Hochgeschwindigkeits-Streaming-Ausgabe, Mehrrundendialog, konfigurationsfreie Bereitstellung, Mehrkanal-Token-Unterstützung und automatische Bereinigung von Sitzungsspuren.
Vollständig kompatibel mit der ChatGPT-Schnittstelle.
Es gibt auch die folgenden sieben kostenlosen APIs, auf die Sie achten sollten:
Schnittstelle von Moonshot AI (Kimi.ai) zur API kimi-free-api
StepChat-Schnittstelle zur API Step-Free-API
Alibaba Tongyi (Qwen) Schnittstelle zur API qwen-free-api
Zhipu AI (Zhipu Qingyan) Schnittstelle zur API glm-free-api
Metaso AI (Metaso) Schnittstelle zur API metaso-free-api
iFlytek Spark-Schnittstelle zur API spark-free-api
MiniMax-Schnittstelle (Conch AI) zur API hailuo-free-api
Die Reverse-API ist instabil. Es wird empfohlen, die offizielle Website von Lingxin Intelligence https://www.ai-beings.com/ aufzurufen, um für die Nutzung der API zu zahlen, um das Risiko eines Verbots zu vermeiden.
Diese Organisation und Einzelpersonen akzeptieren keine finanziellen Spenden oder Transaktionen. Dieses Projekt dient ausschließlich der Forschung, dem Austausch und dem Lernen!
Es ist nur für den persönlichen Gebrauch bestimmt und es ist verboten, externe Dienste oder kommerzielle Nutzung bereitzustellen, um Druck auf den offiziellen Dienst auszuüben. Andernfalls geschieht dies auf eigenes Risiko!
Es ist nur für den persönlichen Gebrauch bestimmt und es ist verboten, externe Dienste oder kommerzielle Nutzung bereitzustellen, um Druck auf den offiziellen Dienst auszuüben. Andernfalls geschieht dies auf eigenes Risiko!
Es ist nur für den persönlichen Gebrauch bestimmt und es ist verboten, externe Dienste oder kommerzielle Nutzung bereitzustellen, um Druck auf den offiziellen Dienst auszuüben. Andernfalls geschieht dies auf eigenes Risiko!
Dieser Link ist nur eine vorübergehende Testfunktion und kann nicht über einen längeren Zeitraum verwendet werden. Bitte stellen Sie ihn für eine langfristige Verwendung selbst bereit.
https://udify.app/chat/LDgsbVTfyTQ000Oq
Holen Sie sich das Token von echo.turing-world.com
Melden Sie sich an. Da emohaa die F12-Entwicklertools deaktiviert, installieren Sie bitte zuerst das Plug-in Manage LocalStorage
, öffnen Sie dann das Plug-in auf der aktuellen Seite und klicken Sie auf die Schaltfläche Export
, um Token
Wert zu finden. Dieser wird als Bearer-Token verwendet Wert der Autorisierung: Authorization: Bearer TOKEN
Sie können Token für mehrere Konten bereitstellen ,
diese gemeinsam verwenden, um Folgendes bereitzustellen:
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
Eine davon wird bei jeder Anforderung des Dienstes ausgewählt.
Bitte bereiten Sie einen Server mit einer öffentlichen IP und offenem Port 8000 vor.
Ziehen Sie das Image und starten Sie den Dienst
docker run -it -d --init --name emohaa-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/emohaa-free-api:latest
Sehen Sie sich Serviceprotokolle in Echtzeit an
docker logs -f emohaa-free-api
Dienst neu starten
docker restart emohaa-free-api
Stoppen Sie den Dienst
docker stop emohaa-free-api
version : ' 3 '
services :
emohaa-free-api :
container_name : emohaa-free-api
image : vinlic/emohaa-free-api:latest
restart : always
ports :
- " 8000:8000 "
environment :
- TZ=Asia/Shanghai
Hinweis: Einige Bereitstellungsbereiche können möglicherweise keine Verbindung zu emohaa herstellen. Wenn im Containerprotokoll eine Zeitüberschreitung der Anforderung angezeigt wird oder keine Verbindung hergestellt werden kann, wechseln Sie bitte zur Bereitstellung in andere Bereiche! Hinweis: Die Containerinstanz des kostenlosen Kontos stoppt automatisch nach einer Zeit der Inaktivität, was zu einer Verzögerung von 50 Sekunden oder mehr bei der nächsten Anfrage führt. Es wird empfohlen, „Container am Leben halten“ zu aktivieren
Verzweigen Sie dieses Projekt in Ihr Github-Konto.
Besuchen Sie Render und melden Sie sich bei Ihrem Github-Konto an.
Erstellen Sie Ihren Webdienst (Neu+ -> Erstellen und Bereitstellen aus einem Git-Repository -> Verbinden Sie Ihr geforktes Projekt -> Wählen Sie den Bereitstellungsbereich aus -> Wählen Sie den Instanztyp als „Kostenlos“ -> „Webdienst erstellen“).
Nachdem Sie auf den Abschluss der Konstruktion gewartet haben, kopieren Sie den zugewiesenen Domänennamen und verbinden Sie die URL für den Zugriff.
Hinweis: Das Anforderungsantwort-Timeout für kostenlose Vercel-Konten beträgt 10 Sekunden, die Schnittstellenantwort dauert jedoch normalerweise länger und es kann zu einem von Vercel zurückgegebenen 504-Timeout-Fehler kommen!
Bitte stellen Sie sicher, dass Sie zuerst die Node.js-Umgebung installiert haben.
npm i -g vercel --registry http://registry.npmmirror.com
vercel login
git clone https://github.com/LLM-Red-Team/emohaa-free-api
cd emohaa-free-api
vercel --prod
Bitte bereiten Sie einen Server mit einer öffentlichen IP und offenem Port 8000 vor.
Bitte installieren Sie zunächst die Node.js-Umgebung, konfigurieren Sie die Umgebungsvariablen und bestätigen Sie, dass der Knotenbefehl verfügbar ist.
Abhängigkeiten installieren
npm i
Installieren Sie PM2 zur Prozessüberwachung
npm i -g pm2
Kompilieren und erstellen. Wenn Sie das dist-Verzeichnis sehen, ist der Build abgeschlossen.
npm run build
Dienst starten
pm2 start dist/index.js --name " emohaa-free-api "
Sehen Sie sich Serviceprotokolle in Echtzeit an
pm2 logs emohaa-free-api
Dienst neu starten
pm2 reload emohaa-free-api
Stoppen Sie den Dienst
pm2 stop emohaa-free-api
Es ist schneller und einfacher, den folgenden sekundären Entwicklungsclient zu verwenden, um auf die Projekte der Free-API-Serie zuzugreifen, und unterstützt das Hochladen von Dokumenten/Bildern!
LobeChat entwickelt von Clivia https://github.com/Yanyutin753/lobe-chat
ChatGPT-Web https://github.com/SuYxh/chatgpt-web-sea entwickelt von Guangguang@
Derzeit wird die mit openai kompatible Schnittstelle /v1/chat/completions
unterstützt. Sie können die mit openai oder anderen Clients kompatible Client-Zugriffsschnittstelle verwenden oder Online-Dienste wie dify verwenden, um darauf zuzugreifen.
Schnittstelle zum Abschluss von Gesprächen, kompatibel mit der Chat-Completions-API von openai.
POST /v1/chat/completions
Der Header muss den Authorization-Header festlegen:
Authorization: Bearer [refresh_token]
Daten anfordern:
{
"messages" : [
{
"role" : " user " ,
"content" : "你好"
}
],
// 如果使用SSE流请设置为true,默认false
"stream" : false
}
Antwortdaten:
{
"id" : " f73f02e6-6b43-4a46-ac24-3a9ea8d15145 " ,
"model" : " emohaa " ,
"object" : " chat.completion " ,
"choices" : [
{
"index" : 0 ,
"message" : {
"role" : " assistant " ,
"content" : " 你好啊!我是Emohaa,想和我聊点什么吗? 今天心情如何? "
},
"finish_reason" : " stop "
}
],
"usage" : {
"prompt_tokens" : 1 ,
"completion_tokens" : 1 ,
"total_tokens" : 2
},
"created" : 1710603111
}
Überprüfen Sie, ob das Token aktiv ist. Andernfalls ist es falsch. Bitte rufen Sie diese Schnittstelle nicht häufig auf (weniger als 10 Minuten).
POST /token/check
Daten anfordern:
{
"token" : " eyJhbGciOiJIUzUxMiIsInR5cCI6IkpXVCJ9... "
}
Antwortdaten:
{
"live" : true
}
Wenn Sie Nginx Reverse Proxy Kimi-Free-API verwenden, fügen Sie bitte die folgenden Konfigurationselemente hinzu, um den Ausgabeeffekt des Streams zu optimieren und das Erlebnis zu optimieren.
# 关闭代理缓冲。当设置为off时,Nginx会立即将客户端请求发送到后端服务器,并立即将从后端服务器接收到的响应发送回客户端。
proxy_buffering off ;
# 启用分块传输编码。分块传输编码允许服务器为动态生成的内容分块发送数据,而不需要预先知道内容的大小。
chunked_transfer_encoding on ;
# 开启TCP_NOPUSH,这告诉Nginx在数据包发送到客户端之前,尽可能地发送数据。这通常在sendfile使用时配合使用,可以提高网络效率。
tcp_nopush on ;
# 开启TCP_NODELAY,这告诉Nginx不延迟发送数据,立即发送小数据包。在某些情况下,这可以减少网络的延迟。
tcp_nodelay on ;
# 设置保持连接的超时时间,这里设置为120秒。如果在这段时间内,客户端和服务器之间没有进一步的通信,连接将被关闭。
keepalive_timeout 120 ;
Da die Inferenzseite nicht mehr über kimi-free-api verfügt, kann der Token nicht gezählt werden und wird als feste Zahl zurückgegeben.