API Близнецов бесплатный, но есть много инструментов, которые работают исключительно с API OpenAI.
Этот проект предоставляет личную конечную конечную точку OpenAI бесплатно.
Хотя он работает в облаке, он не требует обслуживания сервера. Его можно легко развернуть для различных поставщиков бесплатно (с щедрыми ограничениями, подходящими для личного использования).
Кончик
Запуск конечной точки Proxy Locally также является вариантом, хотя он более подходит для использования в разработке.
Вам понадобится личный ключ Google API.
Важный
Даже если вы находитесь за пределами поддерживаемых регионов, все еще можно приобрести его с помощью VPN.
Развернуть проект к одному из поставщиков, используя приведенные ниже инструкции. Вам нужно будет настроить там учетную запись.
Если вы выберете «избавиться от пуговиц», вы сначала пройдете процесс разбивания репозитория, который необходим для непрерывной интеграции (CI).
vercel deploy
vercel dev
netlify deploy
netlify dev
/v1
(например /v1/chat/completions
endpoint)/edge/v1
src/worker.mjs
на https://workers.cloudflare.com/playground (см. Кнопку Deploy
).wrangler deploy
wrangler dev
Смотрите детали здесь.
Только для узла: npm install
.
Затем npm run start
/ npm run start:deno
/ npm run start:bun
.
Только для узла: npm install --include=dev
Затем: npm run dev
/ npm run dev:deno
/ npm run dev:bun
.
Если вы откроете свой недавно развернутый сайт в браузере, вы увидите только 404 Not Found
сообщение. Это ожидается, так как API не предназначен для прямого доступа к браузеру. Чтобы использовать его, вы должны ввести свой адрес API и свой ключ API Gemini в соответствующие поля в настройках вашего программного обеспечения.
Примечание
Не все программные инструменты позволяют переопределить конечную точку Openai, но многие это делают (однако эти настройки иногда могут быть глубоко скрыты).
Как правило, вы должны указать базу API в этом формате:
https://my-super-proxy.vercel.app/v1
Соответствующее поле может быть помечено как « прокси Openai ». Возможно, вам придется посмотреть « расширенные настройки » или аналогичные разделы. В качестве альтернативы, это может быть в каком -то файле конфигурации (для подробностей проверьте соответствующую документацию).
Для некоторых инструментов командной строки вам может потребоваться установить переменную среды, например :
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..или :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
Запросы используют указанную модель, если ее имя начинается с «Gemini-», «Learnlm-» или «Models/». В противном случае эти значения по умолчанию применяются:
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
Видение и аудио вход поддерживаются в соответствии с спецификациями OpenAI. Реализовано через inlineData
.
chat/completions
В настоящее время были реализованы большинство параметров, которые применимы к обоим API, за исключением вызовов функций.
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(V1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
( candidateCount
<8, не для потоковой передачи) presence_penalty
response_format
seed
service_tier
stop
: строка | массив ( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(0,0..2,0 для OpenAI, но Близнецы поддерживают бесконечность) top_p
tools
(v1beta) tool_choice
(v1beta) parallel_tool_calls
user
completions
embeddings
models