واجهة برمجة تطبيقات Gemini مجانية ، ولكن هناك العديد من الأدوات التي تعمل حصريًا مع API Openai.
يوفر هذا المشروع نقطة نهاية متوافقة مع Openai مجانًا.
على الرغم من أنه يعمل في السحابة ، إلا أنه لا يتطلب صيانة الخادم. يمكن نشره بسهولة في مختلف مقدمي الخدمات مجانًا (مع حدود سخية مناسبة للاستخدام الشخصي).
نصيحة
يعد تشغيل نقطة نهاية الوكيل محليًا أيضًا خيارًا ، على الرغم من أنه أكثر ملاءمة لاستخدام التطوير.
ستحتاج إلى مفتاح Google API شخصي.
مهم
حتى لو كنت موجودًا خارج المناطق المدعومة ، فلا يزال من الممكن الحصول على واحدة باستخدام VPN.
نشر المشروع على أحد مقدمي الخدمات ، باستخدام التعليمات أدناه. ستحتاج إلى إعداد حساب هناك.
إذا اخترت "Deploy" ، فسوف يتم توجيهك من خلال عملية نقل المستودع أولاً ، وهو أمر ضروري للتكامل المستمر (CI).
vercel deploy
vercel dev
netlify deploy
netlify dev
/v1
(على سبيل المثال /v1/chat/completions
نقطة نهاية)/edge/v1
src/worker.mjs
إلى https://workers.cloudflare.com/playground (انظر زر Deploy
هناك).wrangler deploy
wrangler dev
انظر التفاصيل هنا.
فقط للعقدة: npm install
.
ثم npm run start
/ npm run start:deno
/ npm run start:bun
.
فقط للعقدة: npm install --include=dev
ثم: npm run dev
/ npm run dev:deno
/ npm run dev:bun
.
إذا قمت بفتح موقعك المنحنى حديثًا في متصفح ، فسترى فقط رسالة 404 Not Found
. هذا متوقع ، لأن واجهة برمجة التطبيقات غير مصممة للوصول المباشر إلى المتصفح. للاستفادة منه ، يجب عليك إدخال عنوان API الخاص بك ومفتاح API Gemini في الحقول المقابلة في إعدادات البرنامج الخاصة بك.
ملحوظة
لا تسمح جميع أدوات البرمجيات بتجاوز نقطة نهاية Openai ، ولكن العديد منها تفعل (ومع ذلك قد تكون هذه الإعدادات مخفية في بعض الأحيان).
عادة ، يجب عليك تحديد قاعدة API في هذا التنسيق:
https://my-super-proxy.vercel.app/v1
يمكن تصنيف الحقل ذي الصلة على أنه " Openai Proxy ". قد تحتاج إلى النظر إلى " الإعدادات المتقدمة " أو أقسام مماثلة. بدلاً من ذلك ، يمكن أن يكون في بعض ملفات التكوين (تحقق من الوثائق ذات الصلة للحصول على التفاصيل).
بالنسبة لبعض أدوات سطر الأوامر ، قد تحتاج إلى تعيين متغير بيئة ، على سبيل المثال :
OPENAI_BASE_URL= " https://my-super-proxy.vercel.app/v1 "
..أو :
OPENAI_API_BASE= " https://my-super-proxy.vercel.app/v1 "
استخدم الطلبات النموذج المحدد إذا بدأ اسمه بـ "Gemini-" أو "Learnlm-" أو "Models/". خلاف ذلك ، تنطبق هذه الإعدادات الافتراضية:
chat/completions
: gemini-1.5-pro-latest
embeddings
: text-embedding-004
مدخلات الرؤية والصوت المدعومة حسب مواصفات Openai. نفذت عبر inlineData
.
chat/completions
حاليًا ، تم تنفيذ معظم المعلمات التي تنطبق على كلا واجهات برمجة التطبيقات ، باستثناء مكالمات الوظائف.
messages
content
role
system
(=> system_instruction
) user
assistant
tool
(v1beta) name
tool_calls
model
frequency_penalty
logit_bias
logprobs
top_logprobs
max_tokens
n
( candidateCount
<8 ، وليس للبث) presence_penalty
response_format
seed
service_tier
stop
: سلسلة | صفيف ( stopSequences
[1،5]) stream
stream_options
include_usage
temperature
(0.0..2.0 لـ Openai ، لكن الجوزاء يدعم ما يصل إلى اللانهاية) top_p
tools
(v1beta) tool_choice
(v1beta) parallel_tool_calls
user
completions
embeddings
models