OpenI-Api-Proxy
Proxy simples para a API OpenAI por meio de um comando de uma linha de uma linha
?
- Tutorial de implantação da Função de Cloud Tencent A função de nuvem Tencent suportou a SSE em toda a região desde 25 de abril. Recomenda -se usá -la.
- Instruções chinesas simplificadas
- "Como desenvolver rapidamente um aplicativo OpenAI/GPT: Notas do desenvolvedor doméstico"
?
O seguinte é traduzido pelo GPT. O inglês a seguir foi traduzido pelo GPT.
️ Este é o lado do servidor do proxy, não o lado do cliente.
Características
- Suporta saída de streaming SSE
- A moderação de texto integrada (requer a configuração da chave de nuvem tencent)
- ?
Implantação de nodejs
Você pode implantar ./app.js em qualquer ambiente que suporta o NodeJS 14+, como funções em nuvem e plataformas de computação de borda.
- Copie App.js e Package.json para o diretório
- Instale dependências com instalação de fios
- Inicie o serviço com o Node App.js
Implantação do Docker
docker run -p 9000:9000 easychen/ai.level06.com:latest
O endereço proxy é http: // $ {ip}: 9000
Variáveis de ambiente disponíveis
- Porta: porta de serviço
- Proxy_key: chave de acesso proxy, usada para restringir o acesso
- Tempo limite: tempo limite da solicitação, padrão 30 segundos
- Tencent_cloud_sid: tencent nuvem secret_id
- Tencent_cloud_skey: tencent nuvem secret_key
- Tencent_cloud_ap: região de tencent em nuvem (por exemplo, AP-Singapore Cingapura)
Uso da API
- Altere o domínio/IP (com o número da porta) do endereço de solicitação do OpenAI no projeto original (por exemplo, https://api.openai.com) para o domínio/IP deste proxy.
- Se proxy_key estiver definido, adicione
:<PROXY_KEY>
após a tecla OpenAI. - moderação: true permite moderação, false desativa a moderação
- modeation_level: alta interrupções todas as frases cujo resultado de moderação não é aprovado, baixo apenas interrompe sentenças cujo resultado de moderação é o bloco.
Notas
- Somente suporta métodos GET e POST, não interfaces relacionadas a arquivos.
Atualmente, o SSE não é suportado, portanto, as opções relacionadas ao fluxo precisam ser desligadas Agora suportado.
Exemplo de uso do lado do cliente
Usando https://www.npmjs.com/package/chatgpt
como exemplo:
chatApi = new gpt . ChatGPTAPI ( {
apiKey : 'sk.....:<proxy_key_here>' ,
apiBaseUrl : "http://localhost:9001/v1" , // Replace with proxy domain/IP
} ) ;
Agradecimentos
- SSE Referência ao código relacionado ao projeto ChatGPT-API