La API de Géminis es gratuita, pero hay muchas herramientas que funcionan exclusivamente con la API de OpenAI.
Este proyecto proporciona un punto final personal compatible con OpenAI de forma gratuita.
Aunque se ejecuta en la nube, no requiere mantenimiento del servidor. Se puede implementar fácilmente en varios proveedores de forma gratuita (con límites generosos adecuados para uso personal).
Consejo
Ejecutar el punto final proxy localmente también es una opción, aunque es más apropiado para el uso del desarrollo.
Necesitará una clave personal de Google API.
Importante
Incluso si se encuentra fuera de las regiones compatibles, todavía es posible adquirir una usando una VPN.
Implemente el proyecto a uno de los proveedores, utilizando las instrucciones a continuación. Deberá configurar una cuenta allí.
Si opta por "Button-Deploy", será guiado a través del proceso de bifurcación del repositorio primero, que es necesario para la integración continua (CI).
vercel deploy
vercel dev
netlify deploy
netlify dev
/v1
( /v1/chat/completions
Ej./edge/v1
src/worker.mjs
a https://workers.cloudflare.com/playground (consulte el botón Deploy
).wrangler deploy
wrangler dev
Vea los detalles aquí.
Solo para nodo: npm install
.
Luego npm run start
/ npm run start:deno
/ npm run start:bun
.
Solo para nodo: npm install --include=dev
Entonces: npm run dev
/ npm run dev:deno
/ npm run dev:bun
.
Si abre su sitio recién desplegado en un navegador, solo verá un mensaje 404 Not Found
. Esto se espera, ya que la API no está diseñada para el acceso directo al navegador. Para utilizarlo, debe ingresar su dirección API y su clave de API Gemini en los campos correspondientes en la configuración de su software.
Nota
No todas las herramientas de software permiten anular el punto final de OpenAI, pero muchas lo hacen (sin embargo, estas configuraciones a veces pueden estar profundamente ocultas).
Por lo general, debe especificar la base API en este formato:
https://my-super-proxy.vercel.app/v1
El campo relevante puede etiquetarse como " proxy de OpenAI ". Es posible que deba buscar en " Configuración avanzada " o secciones similares. Alternativamente, podría estar en algún archivo de configuración (verifique la documentación relevante para más detalles).
Para algunas herramientas de línea de comandos, es posible que deba establecer una variable de entorno, por ejemplo :
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..o :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
Las solicitudes usan el modelo especificado si su nombre comienza con "Gemini-", "Learnlm-" o "Modelos/". De lo contrario, se aplican estos valores predeterminados:
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
Visión y entrada de audio admitida según las especificaciones de OpenAI. Implementado a través de inlineData
.
chat/completions
Actualmente, se han implementado la mayoría de los parámetros aplicables a ambas API, con la excepción de las llamadas de funciones.
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(v1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
( candidateCount
<8, no para la transmisión) presence_penalty
response_format
seed
service_tier
stop
: cadena | Array ( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(0.0..2.0 para OpenAi, pero Gemini admite hasta Infinity) top_p
tools
(v1beta) tool_choice
(v1beta) parallel_tool_calls
user
completions
embeddings
models