Gemini API는 무료이지만 OpenAI API와 독점적으로 작동하는 많은 도구가 있습니다.
이 프로젝트는 개인 개방형 호환 엔드 포인트를 무료로 제공합니다.
클라우드에서 실행되지만 서버 유지 관리가 필요하지 않습니다. 다양한 제공 업체에 무료로 쉽게 배포 할 수 있습니다 (개인 용도에 적합한 제한 사항).
팁
프록시 엔드 포인트를 로컬로 실행하는 것도 옵션이지만 개발 사용에 더 적합합니다.
개인 Google API 키가 필요합니다.
중요한
지원되는 지역 외부에 있더라도 VPN을 사용하여 여전히 획득 할 수 있습니다.
아래 지침을 사용하여 프로젝트를 공급자 중 한 사람에게 배포하십시오. 계정을 설정해야합니다.
"버튼 배포"를 선택하면 먼저 저장소를 포킹하는 프로세스를 안내하게됩니다.
vercel deploy
로 배포 할 수 있습니다vercel dev
netlify deploy
로 배포 할 수 있습니다netlify dev
/v1
(예 : /v1/chat/completions
엔드 포인트)/edge/v1
src/worker.mjs
의 컨텐츠를 수동 Deploy
붙여 넣을 수 있습니다.wrangler deploy
로 배포 할 수 있습니다wrangler dev
자세한 내용은 여기를 참조하십시오.
노드 : npm install
에만 해당됩니다.
그런 다음 npm run start
/ npm run start:deno
/ npm run start:bun
.
노드에 대해서만 : npm install --include=dev
그런 다음 : npm run dev
/ npm run dev:deno
/ npm run dev:bun
.
브라우저에서 새로 배치 된 사이트를 열면 404 Not Found
메시지 만 표시됩니다. API는 직접 브라우저 액세스를 위해 설계되지 않았으므로 이것은 예상됩니다. 이를 활용하려면 API 주소와 Gemini API 키를 소프트웨어 설정의 해당 필드에 입력해야합니다.
메모
모든 소프트웨어 도구가 OpenAI 엔드 포인트를 재정의하는 것은 아니지만 많은 사람들이 수행합니다 (그러나 이러한 설정은 때때로 깊게 숨길 수 있음).
일반적 으로이 형식으로 API 기반을 지정해야합니다.
https://my-super-proxy.vercel.app/v1
관련 필드는 " OpenAi 프록시 "로 표시 될 수 있습니다. " 고급 설정 "또는 이와 유사한 섹션을 살펴 봐야 할 수도 있습니다. 또는 일부 구성 파일에있을 수 있습니다 (자세한 내용은 관련 문서를 확인하십시오).
일부 명령 줄 도구의 경우 환경 변수를 설정 해야 할 수도 있습니다.
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
.. 또는 :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
요청은 이름이 "gemini-", "learnlm-"또는 "models/"로 시작하면 지정된 모델을 사용합니다. 그렇지 않으면 이러한 기본값이 적용됩니다.
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
OpenAI 사양에 따라 지원되는 비전 및 오디오 입력. inlineData
를 통해 구현되었습니다.
chat/completions
현재 기능 호출을 제외하고 두 API에 적용 할 수있는 대부분의 매개 변수가 구현되었습니다.
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(v1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
(스트리밍을위한 candidateCount
아님) presence_penalty
response_format
seed
service_tier
stop
: 문자열 | 배열 ( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(OpenAI의 경우 0.0..2.0이지만 Gemini는 무한대를 지원합니다) top_p
tools
(v1beta) tool_choice
(v1beta) parallel_tool_calls
user
completions
embeddings
models