openai-ap-proxy
Proxy simple pour l'API OpenAI via une commande docker en une ligne
? Si vous êtes trop paresseux pour le construire vous-même, vous pouvez essayer le service API OpenAI tiers qui peut être accessible en Chine et peut être rechargé sur WeChat: API2D.com, qui prend en charge les plug-ins Chat, OpenCat, NextWeb et VScode.
- Tencent Cloud Fonction Deployment Tutorial Tencent Cloud Fonction a pris en charge SSE dans la région depuis le 25 avril. Il est recommandé de l'utiliser.
- Instructions chinoises simplifiées
- "Comment développer rapidement une application OpenAI / GPT: Notes de développeur domestique"
? SSE est déjà pris en charge et le contenu peut être retourné en temps réel
Ce qui suit est traduit par GPT. L'anglais suivant a été traduit par GPT.
️ Il s'agit du côté serveur du proxy, et non du côté client.
Caractéristiques
- Prend en charge la sortie de streaming SSE
- Modération du texte intégrée (nécessite une configuration de clé cloud Tencent)
- ? La sortie SSE Streaming prend en charge la modération du texte, c'est à quel point il est puissant.
Déploiement de Nodejs
Vous pouvez déployer ./app.js dans n'importe quel environnement qui prend en charge Nodejs 14+, tels que les fonctions cloud et les plates-formes informatiques Edge.
- Copier app.js et package.json au répertoire
- Installez les dépendances avec l'installation du fil
- Démarrez le service avec Node app.js
Déploiement de Docker
docker run -p 9000:9000 easychen/ai.level06.com:latest
L'adresse proxy est http: // $ {ip}: 9000
Variables d'environnement disponibles
- Port: port de service
- Proxy_key: clé d'accès proxy, utilisée pour restreindre l'accès
- Timeout: demande de délai de demande, par défaut 30 secondes
- Tencent_cloud_sid: Tencent Cloud Secret_id
- Tencent_cloud_skey: Tencent Cloud Secret_key
- Tencent_cloud_ap: Tencent Cloud Region (par exemple AP-Singapore Singapore)
Utilisation de l'API
- Modifiez le domaine / ip (avec numéro de port) de l'adresse de demande OpenAI dans le projet d'origine (par exemple https://api.openai.com) en domaine / ip de ce proxy.
- Si proxy_key est défini, ajoutez
:<PROXY_KEY>
après la touche OpenAI. - modération: le vrai permet la modération, le faux désactive la modération
- moderation_level: High interrompt toutes les phrases dont le résultat de modération n'est pas passé, peu interrompt les phrases dont le résultat de modération est le bloc.
Notes
- Prend en charge uniquement les méthodes GET et POST, pas les interfaces liées au fichier.
SSE n'est pas actuellement pris en charge, les options liées au flux doivent donc être désactivées Maintenant pris en charge.
Exemple d'utilisation côté client
Utilisation https://www.npmjs.com/package/chatgpt
comme exemple:
chatApi = new gpt . ChatGPTAPI ( {
apiKey : 'sk.....:<proxy_key_here>' ,
apiBaseUrl : "http://localhost:9001/v1" , // Replace with proxy domain/IP
} ) ;
Remerciements
- Référence SSE au code lié au projet ChatGPT-API