API Gemini gratis, tetapi ada banyak alat yang bekerja secara eksklusif dengan API Openai.
Proyek ini menyediakan titik akhir yang kompatibel dengan openai pribadi secara gratis.
Meskipun berjalan di cloud, itu tidak memerlukan pemeliharaan server. Ini dapat dengan mudah digunakan ke berbagai penyedia secara gratis (dengan batasan murah hati yang cocok untuk penggunaan pribadi).
Tip
Menjalankan titik akhir proxy secara lokal juga merupakan opsi, meskipun lebih tepat untuk penggunaan pengembangan.
Anda akan memerlukan kunci API Google pribadi.
Penting
Bahkan jika Anda berada di luar daerah yang didukung, masih mungkin untuk mendapatkannya menggunakan VPN.
Menyebarkan proyek ke salah satu penyedia, menggunakan instruksi di bawah ini. Anda perlu menyiapkan akun di sana.
Jika Anda memilih "Tombol-Diploy", Anda akan dipandu melalui proses forking repositori terlebih dahulu, yang diperlukan untuk integrasi kontinu (CI).
vercel deploy
vercel dev
netlify deploy
netlify dev
/v1
(EG /v1/chat/completions
)/edge/v1
src/worker.mjs
ke https://workers.cloudflare.com/playground (lihat tombol Deploy
).wrangler deploy
wrangler dev
Lihat detailnya di sini.
Hanya untuk Node: npm install
.
Kemudian npm run start
/ npm run start:deno
/ npm run start:bun
.
Hanya untuk node: npm install --include=dev
Kemudian: npm run dev
/ npm run dev:deno
/ npm run dev:bun
.
Jika Anda membuka situs yang baru dikerahkan di browser, Anda hanya akan melihat pesan 404 Not Found
. Ini diharapkan, karena API tidak dirancang untuk akses browser langsung. Untuk memanfaatkannya, Anda harus memasukkan alamat API Anda dan kunci API Gemini Anda ke dalam bidang yang sesuai di pengaturan perangkat lunak Anda.
Catatan
Tidak semua perangkat perangkat lunak memungkinkan mengesampingkan titik akhir openai, tetapi banyak yang melakukannya (namun pengaturan ini terkadang dapat disembunyikan secara mendalam).
Biasanya, Anda harus menentukan basis API dalam format ini:
https://my-super-proxy.vercel.app/v1
Bidang yang relevan dapat diberi label sebagai " proxy openai ". Anda mungkin perlu melihat di bawah " pengaturan lanjutan " atau bagian serupa. Atau, itu bisa dalam beberapa file konfigurasi (periksa dokumentasi yang relevan untuk detailnya).
Untuk beberapa alat baris perintah, Anda mungkin perlu mengatur variabel lingkungan, misalnya :
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..atau :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
Permintaan Gunakan model yang ditentukan jika namanya dimulai dengan "Gemini-", "Learnlm-", atau "Model/". Jika tidak, default ini berlaku:
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
Input visi dan audio didukung sesuai spesifikasi openai. Diimplementasikan melalui inlineData
.
chat/completions
Saat ini, sebagian besar parameter yang berlaku untuk kedua API telah diimplementasikan, dengan pengecualian panggilan fungsi.
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(v1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
( candidateCount
<8, bukan untuk streaming) presence_penalty
response_format
seed
service_tier
stop
: String | Array ( stopSequences
[1,5]) stream
stream_options
include_usage
temperature
(0,0..2.0 untuk openai, tetapi Gemini mendukung hingga tak terbatas) top_p
tools
(V1Beta) tool_choice
(v1beta) parallel_tool_calls
user
completions
embeddings
models