雙子座API是免費的,但是有許多與OpenAI API合作的工具。
該項目免費提供個人與OpenAi兼容的端點。
儘管它在雲中運行,但不需要服務器維護。它可以輕鬆地免費部署到各個提供商(具有適合個人使用的寬敞限制)。
提示
在本地運行代理端點也是一個選項,儘管它更適合開發使用。
您將需要一個個人的Google API密鑰。
重要的
即使您位於受支持區域之外,仍然可以使用VPN獲取該區域。
使用以下說明將項目部署到一個提供商之一。您需要在那裡設置一個帳戶。
如果您選擇“按鈕數據”,則首先要引導您通過訂閱存儲庫的過程,這對於連續集成(CI)是必需的。
vercel deploy
vercel dev
netlify deploy
netlify dev
/v1
(例如/v1/chat/completions
終點)/edge/v1
src/worker.mjs
的內容部署到https://workers.cloudflare.com/playground(請參閱where Deploy
按鈕)。wrangler deploy
部署wrangler dev
請參閱此處的詳細信息。
僅適用於節點: npm install
。
然後npm run start
/ npm run start:deno
/ npm run start:bun
。
僅適用於節點: npm install --include=dev
然後: npm run dev
/ npm run dev:deno
/ npm run dev:bun
。
如果您在瀏覽器中打開新部署的網站,則只會看到404 Not Found
消息。這是可以預期的,因為API不是為直接瀏覽器訪問而設計的。要使用它,您應該在軟件設置中輸入API地址和GEMINI API鍵。
筆記
並非所有的軟件工具都允許覆蓋OpenAI端點,但是許多軟件工具都可以(但是這些設置有時可以被深層隱藏)。
通常,您應以這種格式指定API基礎:
https://my-super-proxy.vercel.app/v1
相關字段可以標記為“ Openai代理”。您可能需要在“高級設置”或類似部分下查看。另外,它可以在某些配置文件中(查看相關文檔以獲取詳細信息)。
對於某些命令行工具,您可能需要設置一個環境變量,例如:
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..或者:
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
請求使用指定的模型,如果其名稱以“ gemini-”開頭,“ Learnlm-”或“ Models/”。否則,這些默認值適用:
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
根據OpenAI規格支持的視覺和音頻輸入。通過inlineData
實施。
chat/completions
當前,除功能調用外,已實現了兩個適用於兩個API的參數。
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(v1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
( candidateCount
<8,不是用於流式傳輸) presence_penalty
response_format
seed
service_tier
stop
:字符串|陣列( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(Openai的0.0..2.0,但Gemini支持無窮大) top_p
tools
(v1beta) tool_choice
(v1beta) parallel_tool_calls
user
completions
embeddings
models