L'API Gemini est gratuite, mais il existe de nombreux outils qui fonctionnent exclusivement avec l'API OpenAI.
Ce projet fournit gratuitement un point de terminaison personnel compatible OpenAI.
Bien qu'il fonctionne dans le cloud, il ne nécessite pas de maintenance du serveur. Il peut être facilement déployé sur divers fournisseurs gratuitement (avec des limites généreuses adaptées à un usage personnel).
Conseil
L'exécution du point de terminaison proxy localement est également une option, bien qu'elle soit plus appropriée pour l'utilisation du développement.
Vous aurez besoin d'une clé API Google personnelle.
Important
Même si vous êtes situé en dehors des régions prises en charge, il est toujours possible d'en acquérir un en utilisant un VPN.
Déployez le projet à l'un des fournisseurs, en utilisant les instructions ci-dessous. Vous devrez y installer un compte.
Si vous optez pour le «déploiement de bouton», vous serez guidé à travers le processus de suppression du référentiel en premier, ce qui est nécessaire pour l'intégration continue (IC).
vercel deploy
vercel dev
netlify deploy
netlify dev
/v1
(par exemple /v1/chat/completions
du point de terminaison)/edge/v1
src/worker.mjs
à https://workers.cloudflare.com/playground (voir le bouton Deploy
).wrangler deploy
wrangler dev
Voir les détails ici.
Uniquement pour le nœud: npm install
.
Puis npm run start
/ npm run start:deno
/ npm run start:bun
.
Uniquement pour le nœud: npm install --include=dev
Ensuite: npm run dev
/ npm run dev:deno
/ npm run dev:bun
.
Si vous ouvrez votre site nouvellement déployé dans un navigateur, vous ne verrez qu'un message 404 Not Found
. Cela est prévu, car l'API n'est pas conçue pour l'accès direct au navigateur. Pour l'utiliser, vous devez saisir votre adresse API et votre clé API Gemini dans les champs correspondants de vos paramètres logiciels.
Note
Tous les outils logiciels ne permettent pas de remplacer le point de terminaison OpenAI, mais beaucoup le font (mais ces paramètres peuvent parfois être profondément cachés).
En règle générale, vous devez spécifier la base d'API dans ce format:
https://my-super-proxy.vercel.app/v1
Le champ pertinent peut être étiqueté comme " proxy openai ". Vous devrez peut-être regarder sous des " paramètres avancés " ou des sections similaires. Alternativement, il pourrait être dans un fichier de configuration (consultez la documentation pertinente pour plus de détails).
Pour certains outils de ligne de commande, vous devrez peut-être définir une variable d'environnement, par exemple :
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..ou :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
Les demandes utilisent le modèle spécifié si son nom commence par "Gemini-", "Learnlm-" ou "Models /". Sinon, ces défauts s'appliquent:
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
Vision et entrée audio prise en charge selon les spécifications OpenAI. Implémenté via inlineData
.
chat/completions
Actuellement, la plupart des paramètres applicables aux deux API ont été implémentés, à l'exception des appels de fonction.
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(v1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
( candidateCount
<8, pas pour le streaming) presence_penalty
response_format
seed
service_tier
stop
: String | Array ( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(0,0..2.0 pour OpenAI, mais les Gémeaux prennent en charge jusqu'à l'infini) top_p
tools
(v1beta) tool_choice
(V1BETA) parallel_tool_calls
user
completions
embeddings
models