OpenAI-API-Proxy
Простой прокси для API OpenAI через однострочную команду Docker
? Если вы слишком ленивы, чтобы построить его самостоятельно, вы можете попробовать стороннюю службу API OpenAI, к которой можно получить доступ в Китае и может быть заряжена на WeChat: API2D.com, который поддерживает чат, OpenCat, NextWeb и VSCODE.
- Учебник по развертыванию функции Tencent Cloud Function Function поддерживает SSE по всему региону с 25 апреля. Рекомендуется его использовать.
- Упрощенные китайские инструкции
- «Как быстро разработать приложение OpenAI/GPT: домашний разработчик отмечает»
? SSE уже поддерживается, а контент может быть возвращен
Следующее переводится GPT. Следующий английский был переведен GPT.
️ Это серверная сторона прокси, а не клиентскую сторону.
Функции
- Поддерживает потоковой вывод SSE
- Встроенная модерация текста (требует конфигурации Tencent Cloud Key)
- ?
Развертывание Nodejs
Вы можете развернуть ./App.js в любую среду, которая поддерживает Nodejs 14+, такую как облачные функции и рекорды вычислительных платформ.
- Скопировать app.js и package.json в каталог
- Установить зависимости с установкой пряжи
- Начните службу с node app.js
Docker развертывание
docker run -p 9000:9000 easychen/ai.level06.com:latest
Прокси -адрес http: // $ {ip}: 9000
Доступные переменные среды
- Порт: сервисный порт
- Proxy_key: ключ доступа к прокси, используемый для ограничения доступа
- Тайм -аут: тайм -аут запроса, по умолчанию 30 секунд
- Tencent_cloud_sid: tencent cloud secret_id
- Tencent_cloud_skey: Tencent Cloud Secret_key
- Tencent_cloud_ap: облачная область Tencent (например, AP-Singapore Singapore)
Использование API
- Измените домен/IP (с номером порта) адреса запроса OpenAI в исходном проекте (например, https://api.openai.com) на домен/IP этого прокси.
- Если устанавливается proxy_key, добавьте
:<PROXY_KEY>
после ключа OpenAI. - Модерация: true обеспечивает модерацию, false отключает модерацию
- moderation_level: Высокие прерывания всех предложений, результат модерации которых не проходит, низкие только прерывают предложения, результат модерации которых является блочным.
Примечания
- Только поддерживает методы GET и публиковать интерфейсы, не связанные с файлами.
SSE в настоящее время не поддерживается, поэтому необходимо выключить опции, связанные с потоком Теперь поддерживается.
Пример использования на стороне клиента
Используя https://www.npmjs.com/package/chatgpt
в качестве примера:
chatApi = new gpt . ChatGPTAPI ( {
apiKey : 'sk.....:<proxy_key_here>' ,
apiBaseUrl : "http://localhost:9001/v1" , // Replace with proxy domain/IP
} ) ;
Благодарности
- Ссылка SSE на код, связанный с проектом, связанный с CHATGPT-API