Gemini APIは無料ですが、Openai APIのみで機能する多くのツールがあります。
このプロジェクトは、個人的なOpenAI互換のエンドポイントを無料で提供します。
クラウドで実行されますが、サーバーのメンテナンスは必要ありません。さまざまなプロバイダーに無料で簡単に展開できます(個人的な使用に適した寛大な制限があります)。
ヒント
プロキシエンドポイントをローカルに実行することもオプションですが、開発の使用により適しています。
個人的なGoogle APIキーが必要です。
重要
サポートされている地域の外側にある場合でも、VPNを使用して取得することができます。
以下の手順を使用して、プロジェクトをプロバイダーの1つに展開します。そこにアカウントを設定する必要があります。
「ボタンデプロイ」を選択すると、継続的な統合(CI)に必要なリポジトリを最初に分岐するプロセスをガイドされます。
vercel deploy
で展開することもできますvercel dev
netlify deploy
で展開することもできますnetlify dev
/v1
(eg /v1/chat/completions
エンドポイント)/edge/v1
src/worker.mjs
のコンテンツを手動でhttps://workers.cloudflare.com/playgroundに展開することもできます( Deploy
ボタンを参照)。wrangler deploy
で展開することもできますwrangler dev
こちらの詳細をご覧ください。
ノードのみ: npm install
。
その後、 npm run start
/ npm run start:deno
/ npm run start:bun
。
ノードのみ: npm install --include=dev
次に: npm run dev
/ npm run dev:deno
/ npm run dev:bun
。
新しく展開されたサイトをブラウザで開くと、 404 Not Found
メッセージのみが表示されます。 APIはダイレクトブラウザアクセス用に設計されていないため、これが予想されます。それを利用するには、APIアドレスとGemini APIキーをソフトウェア設定の対応するフィールドに入力する必要があります。
注記
すべてのソフトウェアツールがOpenAIエンドポイントをオーバーライドできるわけではありませんが、多くの場合(ただし、これらの設定が深く非表示になる場合があります)。
通常、この形式でAPIベースを指定する必要があります。
https://my-super-proxy.vercel.app/v1
関連するフィールドには、「 Openai Proxy 」とラベル付けされる場合があります。 「 Advanced Settings 」または同様のセクションの下を見る必要があるかもしれません。または、構成ファイルにある場合があります(詳細については、関連するドキュメントを確認してください)。
一部のコマンドラインツールでは、環境変数を設定する必要がある場合があります。
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..または :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
要求は、その名前が「gemini-」、「Learnlm-」、または「Models/」で始まる場合、指定されたモデルを使用します。それ以外の場合、これらのデフォルトが適用されます。
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
Openai仕様に従ってサポートされているビジョンとオーディオ入力。 inlineData
経由で実装されています。
chat/completions
現在、両方のAPIに適用可能なパラメーターのほとんどが実装されていますが、関数呼び出しを除きます。
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(v1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
(ストリーミング用ではなく、 candidateCount
<8) presence_penalty
response_format
seed
service_tier
stop
:文字列|配列( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(Openaiの場合は0.0..2.0ですが、Geminiは無限までサポートしています) top_p
tools
(V1BETA) tool_choice
(v1beta) parallel_tool_calls
user
completions
embeddings
models