Este projeto converte a API do modelo Claude do Anthropic no formato da API de bate -papo do Openai.
claude-instant-1
, claude-2
Você pode executar este projeto usando o Cloudflare Workers ou Docker:
Ao usar os trabalhadores do CloudFlare, você não precisa de um servidor para implantar este projeto.
cloudflare-worker.js
para o CloudFlare Worker "Quick Edit" EditorOs trabalhadores do Cloudfalre apoiam solicitações de 100k por dia, se você precisar ligar mais do que isso, poderá usar o Docker para implantar como abaixo.
docker run -p 8000:8000 wtzeng/claude-to-chatgpt:latest
docker-compose up
A API estará disponível em http: // localhost: 8000. Endpoint da API: /v1/chat/completions
Quando você insere o parâmetro do modelo como gpt-3.5-turbo
ou gpt-3.5-turbo-0613
, ele será substituído por claude-instant-1
. Caso contrário, claude-2
será utilizado.
Aqui estão algum software GUI recomendado que suporta este projeto:
curl http://localhost:8000/v1/chat/completions
-H " Content-Type: application/json "
-H " Authorization: Bearer $CLAUDE_API_KEY "
-d ' {
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
} '
A API de conclusão de Claude possui um terminal /v1/complete
que leva a seguinte solicitação JSON:
{
"prompt" : " nn Human: Hello, AI. nn Assistant: " ,
"model" : " claude-instant-1 " ,
"max_tokens_to_sample" : 100 ,
"temperature" : 1 ,
"stream" : true
}
E retorna JSON com escolhas e conclusões.
A API de bate -papo do OpenAI possui um ponto final de extremidade /v1/chat/completions
que leva:
{
"model" : " gpt-3.5-turbo " ,
"messages" : [
{
"role" : " user " ,
"content" : " Hello, AI. "
}
],
"max_tokens" : 100 ,
"temperature" : 1 ,
"stream" : true
}
E retorna JSON com uma string de resposta.
Este projeto converte entre essas duas APIs, obtém conclusões do modelo Claude e formatando -as como respostas de bate -papo do OpenAI.
Este projeto está licenciado sob a licença do MIT - consulte o arquivo de licença para obter detalhes.