Admite salida de transmisión de alta velocidad, diálogo de múltiples rondas, implementación sin configuración, soporte de token multicanal y limpieza automática de seguimientos de sesión.
Totalmente compatible con la interfaz ChatGPT.
También hay las siguientes siete API gratuitas a las que debes prestar atención:
Interfaz Moonshot AI (Kimi.ai) para API kimi-free-api
Interfaz StepChat para API step-free-api
Interfaz de Alibaba Tongyi (Qwen) para API qwen-free-api
Interfaz Zhipu AI (Zhipu Qingyan) para API glm-free-api
Interfaz Metaso AI (Metaso) para API metaso-free-api
Interfaz iFlytek Spark para API sin chispa
Interfaz MiniMax (Conch AI) para API hailuo-free-api
La API inversa es inestable. Se recomienda ir al sitio web oficial de Lingxin Intelligence https://www.ai-beings.com/ para pagar y usar la API para evitar el riesgo de ser prohibido.
Esta organización y los individuos no aceptan donaciones ni transacciones financieras. ¡Este proyecto es puramente para investigación, intercambio y aprendizaje!
Es solo para uso personal y está prohibido proporcionar servicios externos o uso comercial para evitar presionar al servicio oficial, de lo contrario es bajo su propio riesgo.
Es solo para uso personal y está prohibido proporcionar servicios externos o uso comercial para evitar presionar al servicio oficial, de lo contrario es bajo su propio riesgo.
Es solo para uso personal y está prohibido proporcionar servicios externos o uso comercial para evitar presionar al servicio oficial, de lo contrario es bajo su propio riesgo.
Este enlace es solo una función de prueba temporal y no se puede utilizar durante mucho tiempo. Impleméntelo usted mismo para un uso a largo plazo.
https://udify.app/chat/LDgsbVTfyTQ000Oq
Obtenga el token de echo.turing-world.com
Inicie sesión. Dado que emohaa deshabilita las herramientas de desarrollador F12, primero instale el complemento Manage LocalStorage
, luego abra el complemento en la página actual y haga clic en el botón Export
para encontrar Token
. Este se usará como token de portador. valor de Autorización: Authorization: Bearer TOKEN
Puede proporcionar tokens para varias cuentas ,
utilizarlos juntos para proporcionar:
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
Se seleccionará uno de estos cada vez que se solicite el servicio.
Prepare un servidor con una IP pública y abra el puerto 8000.
Extraiga la imagen e inicie el servicio.
docker run -it -d --init --name emohaa-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/emohaa-free-api:latest
Ver registros de servicio en tiempo real
docker logs -f emohaa-free-api
Reiniciar servicio
docker restart emohaa-free-api
detener el servicio
docker stop emohaa-free-api
version : ' 3 '
services :
emohaa-free-api :
container_name : emohaa-free-api
image : vinlic/emohaa-free-api:latest
restart : always
ports :
- " 8000:8000 "
environment :
- TZ=Asia/Shanghai
Nota: Es posible que algunas áreas de implementación no puedan conectarse a emohaa. Si el registro del contenedor muestra un tiempo de espera de solicitud o no se puede conectar, cambie a otras áreas para la implementación. Nota: La instancia de contenedor de la cuenta gratuita dejará de ejecutarse automáticamente después de un período de inactividad, lo que provocará un retraso de 50 segundos o más en la siguiente solicitud. Se recomienda marcar Renderizar contenedor para mantener vivo.
Bifurca este proyecto en tu cuenta de github.
Visita Render e inicia sesión en tu cuenta de github.
Cree su servicio web (Nuevo+ -> Compile e implemente desde un repositorio Git -> Conecte su proyecto bifurcado -> Seleccione el área de implementación -> Seleccione el tipo de instancia como Gratis -> Crear servicio web).
Después de esperar a que se complete la construcción, copie el nombre de dominio asignado y empalme la URL para acceder.
Nota: El tiempo de espera de respuesta de la solicitud para las cuentas gratuitas de Vercel es de 10 segundos, pero la respuesta de la interfaz suele tardar más y es posible que encuentre un error de tiempo de espera 504 devuelto por Vercel.
Primero asegúrese de haber instalado el entorno Node.js.
npm i -g vercel --registry http://registry.npmmirror.com
vercel login
git clone https://github.com/LLM-Red-Team/emohaa-free-api
cd emohaa-free-api
vercel --prod
Prepare un servidor con una IP pública y abra el puerto 8000.
Primero instale el entorno Node.js, configure las variables de entorno y confirme que el comando de nodo esté disponible.
Instalar dependencias
npm i
Instale PM2 para proteger el proceso
npm i -g pm2
Compile y construya. Cuando vea el directorio dist, la compilación estará completa.
npm run build
Iniciar servicio
pm2 start dist/index.js --name " emohaa-free-api "
Ver registros de servicio en tiempo real
pm2 logs emohaa-free-api
Reiniciar servicio
pm2 reload emohaa-free-api
detener el servicio
pm2 stop emohaa-free-api
¡Es más rápido y fácil utilizar el siguiente cliente de desarrollo secundario para acceder a los proyectos de la serie API gratuita y admite la carga de documentos/imágenes!
LobeChat desarrollado por Clivia https://github.com/Yanyutin753/lobe-chat
ChatGPT Web https://github.com/SuYxh/chatgpt-web-sea desarrollado por Guangguang@
Actualmente, se admite la interfaz /v1/chat/completions
que es compatible con openai. Puede utilizar la interfaz de acceso de cliente que sea compatible con openai u otros clientes, o utilizar servicios en línea como dify para acceder a ella.
Interfaz de finalización de conversación, compatible con la API de finalización de chat de Openai.
ENVIAR /v1/chat/compleciones
El encabezado necesita establecer el encabezado de Autorización:
Authorization: Bearer [refresh_token]
Solicitar datos:
{
"messages" : [
{
"role" : " user " ,
"content" : "你好"
}
],
// 如果使用SSE流请设置为true,默认false
"stream" : false
}
Datos de respuesta:
{
"id" : " f73f02e6-6b43-4a46-ac24-3a9ea8d15145 " ,
"model" : " emohaa " ,
"object" : " chat.completion " ,
"choices" : [
{
"index" : 0 ,
"message" : {
"role" : " assistant " ,
"content" : " 你好啊!我是Emohaa,想和我聊点什么吗? 今天心情如何? "
},
"finish_reason" : " stop "
}
],
"usage" : {
"prompt_tokens" : 1 ,
"completion_tokens" : 1 ,
"total_tokens" : 2
},
"created" : 1710603111
}
Compruebe si el token está activo. Si está activo, no es verdadero; de lo contrario, es falso. No llame a esta interfaz con frecuencia (menos de 10 minutos).
PUBLICAR /token/cheque
Solicitar datos:
{
"token" : " eyJhbGciOiJIUzUxMiIsInR5cCI6IkpXVCJ9... "
}
Datos de respuesta:
{
"live" : true
}
Si está utilizando el proxy inverso kimi-free-api de Nginx, agregue los siguientes elementos de configuración para optimizar el efecto de salida de la transmisión y optimizar la experiencia.
# 关闭代理缓冲。当设置为off时,Nginx会立即将客户端请求发送到后端服务器,并立即将从后端服务器接收到的响应发送回客户端。
proxy_buffering off ;
# 启用分块传输编码。分块传输编码允许服务器为动态生成的内容分块发送数据,而不需要预先知道内容的大小。
chunked_transfer_encoding on ;
# 开启TCP_NOPUSH,这告诉Nginx在数据包发送到客户端之前,尽可能地发送数据。这通常在sendfile使用时配合使用,可以提高网络效率。
tcp_nopush on ;
# 开启TCP_NODELAY,这告诉Nginx不延迟发送数据,立即发送小数据包。在某些情况下,这可以减少网络的延迟。
tcp_nodelay on ;
# 设置保持连接的超时时间,这里设置为120秒。如果在这段时间内,客户端和服务器之间没有进一步的通信,连接将被关闭。
keepalive_timeout 120 ;
Dado que el lado de inferencia ya no tiene kimi-free-api, el token no se puede contar y se devolverá como un número fijo.