Die Gemini -API ist kostenlos, aber es gibt viele Tools, die ausschließlich mit der OpenAI -API zusammenarbeiten.
Dieses Projekt bietet einen persönlichen OpenAI-kompatiblen Endpunkt kostenlos.
Obwohl es in der Cloud ausgeführt wird, erfordert es keine Serverwartung. Es kann problemlos kostenlos an verschiedene Anbieter eingesetzt werden (mit großzügigen Grenzen, die für den persönlichen Gebrauch geeignet sind).
Tipp
Das Ausführen des Proxy -Endpunkts lokal ist ebenfalls eine Option, die für die Entwicklung der Entwicklung geeigneter ist.
Sie benötigen einen persönlichen Google -API -Schlüssel.
Wichtig
Selbst wenn Sie sich außerhalb der unterstützten Regionen befinden, ist es immer noch möglich, einen mit einem VPN zu erwerben.
Stellen Sie das Projekt mit den folgenden Anweisungen in einem der Anbieter ein. Sie müssen dort ein Konto einrichten.
Wenn Sie sich für "Button-Deploy" entscheiden, werden Sie zuerst durch den Prozess der Abgabe des Repositorys geführt, was für die kontinuierliche Integration (CI) erforderlich ist.
vercel deploy
bereitgestellt werdenvercel dev
netlify deploy
bereitgestellt werdennetlify dev
/v1
(EG /v1/chat/completions
-Endpunkt)/edge/v1
src/worker.mjs
auf https://workers.cloudflare.com/playground (siehe Schaltfläche Deploy
) eingesetzt werden.wrangler deploy
eingesetzt werdenwrangler dev
Siehe Details hier.
Nur für Knoten: npm install
.
Dann npm run start
/ npm run start:deno
/ npm run start:bun
.
Nur für Knoten: npm install --include=dev
Dann: npm run dev
/ npm run dev:deno
/ npm run dev:bun
.
Wenn Sie Ihre neu abgelagerte Site in einem Browser öffnen, sehen Sie nur eine 404 Not Found
Nachricht. Dies wird erwartet, da die API nicht für den direkten Browserzugriff ausgelegt ist. Um es zu verwenden, sollten Sie Ihre API -Adresse und Ihre Gemini -API -Schlüssel in die entsprechenden Felder in Ihren Softwareeinstellungen eingeben.
Notiz
Nicht alle Software -Tools ermöglichen das Überschreiben des OpenAI -Endpunkts, aber viele tun dies (diese Einstellungen können jedoch manchmal tief versteckt sein).
Normalerweise sollten Sie die API -Basis in diesem Format angeben:
https://my-super-proxy.vercel.app/v1
Das relevante Feld kann als " OpenAI -Proxy " bezeichnet werden. Möglicherweise müssen Sie unter " erweiterten Einstellungen " oder ähnlichen Abschnitten suchen. Alternativ könnte es in einer Konfigurationsdatei enthalten sein (die entsprechenden Dokumentation für Details finden Sie).
Für einige Befehlszeilen-Tools müssen Sie möglicherweise eine Umgebungsvariable festlegen, z . B.:
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..oder :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
Anfragen verwenden das angegebene Modell, wenn sein Name mit "Gemini-", "Learnlm-" oder "Models/" beginnt. Andernfalls gelten diese Standardeinstellungen:
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
Seh- und Audioeingabe, die gemäß den OpenAI -Spezifikationen unterstützt werden. Implementiert über inlineData
.
chat/completions
Derzeit wurden die meisten Parameter, die für beide APIs anwendbar sind, mit Ausnahme von Funktionsaufrufen implementiert.
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(V1Beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
( candidateCount
<8, nicht zum Streaming) presence_penalty
response_format
seed
service_tier
stop
: String | Array ( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(0,0..2.0 für OpenAI, aber Gemini stützt bis zur Unendlichkeit) top_p
tools
(V1Beta) tool_choice
(v1beta) parallel_tool_calls
user
completions
embeddings
models