Dieses Projekt wandelt die API des Claude -Modells von Anthropic in das OpenAI -Chat -API -Format um.
claude-instant-1
, claude-2
-ModelleSie können dieses Projekt mit Cloudflare -Mitarbeitern oder Docker ausführen:
Durch die Verwendung von CloudFlare -Mitarbeitern benötigen Sie keinen Server, um dieses Projekt bereitzustellen.
cloudflare-worker.js
in CloudFlare Worker "Quick Edit" -Deitor einDie CloudFalre -Arbeitnehmer unterstützen 100K -Anfragen pro Tag. Wenn Sie mehr als das anrufen müssen, können Sie Docker verwenden, um unten zu bereitstellen.
docker run -p 8000:8000 wtzeng/claude-to-chatgpt:latest
docker-compose up
Die API ist dann unter http: // localhost: 8000 erhältlich. API Endpoint: /v1/chat/completions
Wenn Sie den Modellparameter als gpt-3.5-turbo
oder gpt-3.5-turbo-0613
eingeben, wird er durch claude-instant-1
ersetzt. Andernfalls wird claude-2
verwendet.
Hier sind einige empfohlene GUI -Software, die dieses Projekt unterstützt:
curl http://localhost:8000/v1/chat/completions
-H " Content-Type: application/json "
-H " Authorization: Bearer $CLAUDE_API_KEY "
-d ' {
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
} '
Die Claude Completion -API hat einen Endpunkt /v1/complete
der die folgende JSON -Anfrage stellt:
{
"prompt" : " nn Human: Hello, AI. nn Assistant: " ,
"model" : " claude-instant-1 " ,
"max_tokens_to_sample" : 100 ,
"temperature" : 1 ,
"stream" : true
}
Und gibt JSON mit Auswahl und Fertigstellungen zurück.
Die OpenAI -Chat -API hat einen ähnlichen /v1/chat/completions
Endpunkt, der annimmt:
{
"model" : " gpt-3.5-turbo " ,
"messages" : [
{
"role" : " user " ,
"content" : " Hello, AI. "
}
],
"max_tokens" : 100 ,
"temperature" : 1 ,
"stream" : true
}
Und gibt JSON mit einer Antwortzeichenfolge zurück.
Dieses Projekt wandelt sich zwischen diesen beiden APIs um, erhalten Abschlüsse aus dem Claude -Modell und formatieren Sie sie als OpenAI -Chat -Antworten.
Dieses Projekt ist unter der MIT -Lizenz lizenziert - Einzelheiten finden Sie in der Lizenzdatei.