A API Gemini é gratuita, mas existem muitas ferramentas que funcionam exclusivamente com a API Openai.
Este projeto fornece um terminal pessoal compatível com o OpenAI gratuitamente.
Embora seja executado na nuvem, não requer manutenção do servidor. Ele pode ser facilmente implantado para vários provedores gratuitamente (com limites generosos adequados para uso pessoal).
Dica
A execução do endpoint proxy localmente também é uma opção, embora seja mais apropriado para o uso do desenvolvimento.
Você precisará de uma chave pessoal da API do Google.
Importante
Mesmo se você estiver localizado fora das regiões suportadas, ainda é possível adquirir uma usando uma VPN.
Implante o projeto em um dos fornecedores, usando as instruções abaixo. Você precisará configurar uma conta lá.
Se você optar por "implantar de botão", será guiado pelo processo de forking o repositório primeiro, o que é necessário para a integração contínua (IC).
vercel deploy
vercel dev
netlify deploy
netlify dev
/v1
(por exemplo /v1/chat/completions
terminais)/edge/v1
src/worker.mjs
para https://workers.cloudflare.com/playground (consulte o botão Deploy
).wrangler deploy
wrangler dev
Veja detalhes aqui.
Somente para o nó: npm install
.
Então npm run start
/ npm run start:deno
/ npm run start:bun
.
Somente para o nó: npm install --include=dev
Então: npm run dev
/ npm run dev:deno
/ npm run dev:bun
.
Se você abrir seu site recém-empregado em um navegador, verá apenas uma mensagem 404 Not Found
. Isso é esperado, pois a API não foi projetada para acesso direto ao navegador. Para utilizá -lo, você deve inserir seu endereço da API e sua chave de API Gemini nos campos correspondentes nas configurações do seu software.
Observação
Nem todas as ferramentas de software permitem substituir o terminal do OpenAI, mas muitas (no entanto, essas configurações às vezes podem ser profundamente ocultas).
Normalmente, você deve especificar a base da API neste formato:
https://my-super-proxy.vercel.app/v1
O campo relevante pode ser rotulado como " proxy do OpenAI ". Pode ser necessário procurar em " Configurações avançadas " ou seções semelhantes. Como alternativa, pode estar em algum arquivo de configuração (verifique a documentação relevante para obter detalhes).
Para algumas ferramentas da linha de comando, pode ser necessário definir uma variável de ambiente, por exemplo :
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..ou :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
As solicitações usam o modelo especificado se seu nome começar com "Gemini-", "Learnlm-" ou "Models/". Caso contrário, esses padrões se aplicam:
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
Entrada de visão e áudio suportados conforme as especificações do OpenAI. Implementado via inlineData
.
chat/completions
Atualmente, a maioria dos parâmetros aplicáveis às duas APIs foi implementada, com exceção das chamadas de função.
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(v1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
( candidateCount
<8, não para streaming) presence_penalty
response_format
seed
service_tier
stop
: String | Array ( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(0,0..2.0 para o OpenAI, mas Gemini suporta até o infinito) top_p
tools
(V1beta) tool_choice
(V1beta) parallel_tool_calls
user
completions
embeddings
models