Этот проект преобразует API модели Claude Antropic в формат API чата OpenAI.
claude-instant-1
, claude-2
моделиВы можете запустить этот проект, используя работники CloudFlare или Docker:
Используя работники CloudFlare, вам не нужен сервер для развертывания этого проекта.
cloudflare-worker.js
в CloudFlare Worker "Quick Edit" РедакторРаботники CloudFalre поддерживают 100 тыс. Запрос в день, если вам нужно позвонить больше, чем это, вы можете использовать Docker для развертывания, как показано ниже.
docker run -p 8000:8000 wtzeng/claude-to-chatgpt:latest
docker-compose up
Затем API будет доступен по адресу http: // localhost: 8000. API Endpoint: /v1/chat/completions
Когда вы вводите параметр модели как gpt-3.5-turbo
или gpt-3.5-turbo-0613
, он будет заменен claude-instant-1
. В противном случае claude-2
будет использоваться.
Вот несколько рекомендованных программного обеспечения для графического интерфейса, которое поддерживает этот проект:
curl http://localhost:8000/v1/chat/completions
-H " Content-Type: application/json "
-H " Authorization: Bearer $CLAUDE_API_KEY "
-d ' {
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
} '
API Claude Applion имеет конечную точку /v1/complete
, которая принимает следующий запрос JSON:
{
"prompt" : " nn Human: Hello, AI. nn Assistant: " ,
"model" : " claude-instant-1 " ,
"max_tokens_to_sample" : 100 ,
"temperature" : 1 ,
"stream" : true
}
И возвращает JSON с выбором и завершением.
API Openai Chat имеет аналогичную конечную точку /v1/chat/completions
, которая принимает:
{
"model" : " gpt-3.5-turbo " ,
"messages" : [
{
"role" : " user " ,
"content" : " Hello, AI. "
}
],
"max_tokens" : 100 ,
"temperature" : 1 ,
"stream" : true
}
И возвращает JSON по строке ответа.
Этот проект конвертируется между этими двумя API, получает завершения от модели Claude и форматирование их в качестве ответов на чат Openai.
Этот проект лицензирован по лицензии MIT - для получения подробной информации см. Файл лицензии.