Ce projet convertit l'API du modèle Claude d'Anthropic au format API Openai Chat.
claude-instant-1
, claude-2
Vous pouvez exécuter ce projet à l'aide de travailleurs CloudFlare ou Docker:
En utilisant des travailleurs CloudFlare, vous n'avez pas besoin d'un serveur pour déployer ce projet.
cloudflare-worker.js
à l'éditeur de CloudFlare Worker "EDIT"Les travailleurs CloudFalre prennent en charge 100k demandes par jour, si vous devez appeler plus que cela, vous pouvez utiliser Docker pour déployer comme ci-dessous.
docker run -p 8000:8000 wtzeng/claude-to-chatgpt:latest
docker-compose up
L'API sera ensuite disponible sur http: // localhost: 8000. API Endpoint: /v1/chat/completions
Lorsque vous saisissez le paramètre du modèle en tant que gpt-3.5-turbo
ou gpt-3.5-turbo-0613
, il sera substitué par claude-instant-1
. Sinon, claude-2
sera utilisé.
Voici quelques logiciels GUI recommandés qui prennent en charge ce projet:
curl http://localhost:8000/v1/chat/completions
-H " Content-Type: application/json "
-H " Authorization: Bearer $CLAUDE_API_KEY "
-d ' {
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
} '
L'API de complétion Claude a un point de terminaison /v1/complete
qui prend la demande JSON suivante:
{
"prompt" : " nn Human: Hello, AI. nn Assistant: " ,
"model" : " claude-instant-1 " ,
"max_tokens_to_sample" : 100 ,
"temperature" : 1 ,
"stream" : true
}
Et renvoie JSON avec des choix et des achèvements.
L'API Openai Chat a un point de terminaison similaire /v1/chat/completions
qui prend:
{
"model" : " gpt-3.5-turbo " ,
"messages" : [
{
"role" : " user " ,
"content" : " Hello, AI. "
}
],
"max_tokens" : 100 ,
"temperature" : 1 ,
"stream" : true
}
Et renvoie JSON avec une chaîne de réponse.
Ce projet convertit entre ces deux API, obtient des compléments du modèle Claude et les formatant sous forme de réponses de chat openai.
Ce projet est autorisé en vertu de la licence MIT - voir le fichier de licence pour plus de détails.