Este proyecto convierte la API del modelo Claude de Anthrope en el formato API de Chat Operai.
claude-instant-1
, claude-2
Puede ejecutar este proyecto usando los trabajadores de Cloudflare o Docker:
Al usar los trabajadores de CloudFlare, no necesita un servidor para implementar este proyecto.
cloudflare-worker.js
al editor de "edición rápida" de Worker de CloudflareLos trabajadores de CloudFalre admiten 100k solicitudes al día, si necesita llamar más que eso, puede usar Docker para implementarlo a continuación.
docker run -p 8000:8000 wtzeng/claude-to-chatgpt:latest
docker-compose up
La API estará disponible en http: // localhost: 8000. API Endpoint: /v1/chat/completions
Cuando ingresa el parámetro del modelo como gpt-3.5-turbo
o gpt-3.5-turbo-0613
, se sustituirá con claude-instant-1
. De lo contrario, se utilizará claude-2
.
Aquí hay algunos software GUI recomendado que admite este proyecto:
curl http://localhost:8000/v1/chat/completions
-H " Content-Type: application/json "
-H " Authorization: Bearer $CLAUDE_API_KEY "
-d ' {
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
} '
La API de finalización de Claude tiene un punto final /v1/complete
que toma la siguiente solicitud JSON:
{
"prompt" : " nn Human: Hello, AI. nn Assistant: " ,
"model" : " claude-instant-1 " ,
"max_tokens_to_sample" : 100 ,
"temperature" : 1 ,
"stream" : true
}
Y devuelve JSON con opciones y terminaciones.
La API de chat de OpenAI tiene un punto final similar /v1/chat/completions
que toma:
{
"model" : " gpt-3.5-turbo " ,
"messages" : [
{
"role" : " user " ,
"content" : " Hello, AI. "
}
],
"max_tokens" : 100 ,
"temperature" : 1 ,
"stream" : true
}
Y devuelve JSON con una cadena de respuesta.
Este proyecto se convierte entre estas dos API, se complete del modelo Claude y las formatea como respuestas de chat de OpenAI.
Este proyecto tiene licencia bajo la licencia MIT; consulte el archivo de licencia para obtener más detalles.