双子座API是免费的,但是有许多与OpenAI API合作的工具。
该项目免费提供个人与OpenAi兼容的端点。
尽管它在云中运行,但不需要服务器维护。它可以轻松地免费部署到各个提供商(具有适合个人使用的宽敞限制)。
提示
在本地运行代理端点也是一个选项,尽管它更适合开发使用。
您将需要一个个人的Google API密钥。
重要的
即使您位于受支持区域之外,仍然可以使用VPN获取该区域。
使用以下说明将项目部署到一个提供商之一。您需要在那里设置一个帐户。
如果您选择“按钮数据”,则首先要引导您通过订阅存储库的过程,这对于连续集成(CI)是必需的。
vercel deploy
vercel dev
netlify deploy
netlify dev
/v1
(例如/v1/chat/completions
终点)/edge/v1
src/worker.mjs
的内容部署到https://workers.cloudflare.com/playground(请参阅where Deploy
按钮)。wrangler deploy
部署wrangler dev
请参阅此处的详细信息。
仅适用于节点: npm install
。
然后npm run start
/ npm run start:deno
/ npm run start:bun
。
仅适用于节点: npm install --include=dev
然后: npm run dev
/ npm run dev:deno
/ npm run dev:bun
。
如果您在浏览器中打开新部署的网站,则只会看到404 Not Found
消息。这是可以预期的,因为API不是为直接浏览器访问而设计的。要使用它,您应该在软件设置中输入API地址和GEMINI API键。
笔记
并非所有的软件工具都允许覆盖OpenAI端点,但是许多软件工具都可以(但是这些设置有时可以被深层隐藏)。
通常,您应以这种格式指定API基础:
https://my-super-proxy.vercel.app/v1
相关字段可以标记为“ Openai代理”。您可能需要在“高级设置”或类似部分下查看。另外,它可以在某些配置文件中(查看相关文档以获取详细信息)。
对于某些命令行工具,您可能需要设置一个环境变量,例如:
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..或者:
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
请求使用指定的模型,如果其名称以“ gemini-”开头,“ Learnlm-”或“ Models/”。否则,这些默认值适用:
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
根据OpenAI规格支持的视觉和音频输入。通过inlineData
实施。
chat/completions
当前,除功能调用外,已实现了两个适用于两个API的参数。
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(v1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
( candidateCount
<8,不是用于流式传输) presence_penalty
response_format
seed
service_tier
stop
:字符串|阵列( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(Openai的0.0..2.0,但Gemini支持无穷大) top_p
tools
(v1beta) tool_choice
(v1beta) parallel_tool_calls
user
completions
embeddings
models