Google baru -baru ini merilis titik akhir baru untuk Gemini API, yang bertujuan untuk menyederhanakan proses migrasi dari solusi openai ke Gemini. Langkah ini dirancang untuk memberi pengembang cara yang lebih nyaman untuk memanfaatkan kekuatan Gemini. Titik akhir yang baru saat ini dalam beta dan hanya mendukung beberapa fitur API OpenAI, seperti penyelesaian obrolan dan embed API, dan menyediakan kode sampel untuk menggunakan model Gemini melalui panggilan istirahat atau Openai SDK resmi. Ini memberikan opsi baru bagi pengembang untuk beralih antara berbagai model bahasa besar dan memicu diskusi industri tentang standardisasi API di masa depan.
Google baru -baru ini mengumumkan peluncuran titik akhir baru untuk Gemini API -nya, yang bertujuan untuk membantu pengembang yang sudah mengadopsi solusi OpenAI beralih ke Gemini dengan lebih mudah. Titik akhir baru ini masih dalam beta dan hanya memberikan dukungan untuk beberapa fitur openai.
Menurut Google, titik akhir baru ini dapat menggantikan titik akhir Openai dengan panggilan istirahat langsung atau SDK resmi OpenAI. Misalnya, jika Anda memiliki program yang ditulis menggunakan OpenAI SDK (seperti Python), Anda dapat mengubah inisialisasi melalui kode berikut, menggunakan model Google:
Dari Openai Impor Openai
klien = openai (
api_key = "Gemini_api_key",
base_url = "https://generativielanguage.googleapis.com/v1beta/openai/"
)
Dalam kode, pengembang perlu menyediakan kunci API Gemini, yang dapat ditulis langsung dalam kode atau melewati variabel lingkungan OpenAI_API_Key. Untuk menghasilkan teks, Anda dapat menggunakan API penyelesaian obrolan, seperti yang ditunjukkan di bawah ini, menentukan nama model Gemini yang ingin Anda gunakan:
response = client.chat.completons.create (
model = "Gemini-1.5-flash",
n = 1,
pesan = [
{"peran": "sistem", "konten": "Anda adalah asisten yang membantu."},
{
"Peran": "Pengguna",
"Konten": "Jelaskan saya cara kerja AI"
}
]
)
cetak (respons.choices [0] .message)
Selain itu, titik akhir Gemini yang baru mendukung API tertanam Openai untuk mengukur korelasi antara string teks. Singkatnya, Embed API memetakan teks ke dalam vektor angka floating point, yang dapat digunakan pengembang untuk mencari nilai spesifik, teks cluster, mendeteksi pengecualian, dan memberikan rekomendasi. Cuplikan kode berikut menunjukkan cara menggunakan fitur ini di Gemini:
respons = client.embeddings.create (
input = "string teks Anda ada di sini",
model = "Text-Embedding-004"
)
cetak (response.data [0] .empedding)
Saat ini, API Penyelesaian Obrolan dan API Embed adalah satu -satunya fitur OpenAI yang dapat digunakan pada model Gemini melalui titik akhir OpenAI yang baru. Selain itu, dukungan untuk unggahan gambar dan output terstruktur terbatas pada fungsionalitas terbatas. Google mengatakan berencana untuk menambahkan lebih banyak fitur OpenAI sehingga pengembang dapat menggunakan Gemini sebagai alternatif untuk Openai, tetapi kerangka waktu tertentu belum jelas.
Dalam diskusi Reddit, komentator memuji langkah Google, percaya itu memberikan solusi kepada pengguna API Openai untuk menghindari penguncian, meskipun jarak menerapkan API standar untuk memudahkan pengalihan yang mudah antara berbagai penyedia model, masih ada jalan panjang yang harus ditempuh.
Sebagai pendekatan yang lebih umum, proyek VLLM dirancang untuk mendukung berbagai model generasi dan penyematan dan menyediakan server yang kompatibel dengan openai. Dengan VLLM, pengembang dapat menggunakan Mistral, Llama, LLAVA, dan banyak model utama lainnya yang tersedia saat ini.
Pendahuluan Resmi: https://developers.googleBlog.com/en/gemini-is-now-accessible-from-the-openai-library/
Poin -Poin Kunci:
Google meluncurkan titik akhir baru untuk Gemini API untuk membantu pengembang beralih ke Gemini dengan lebih mudah.
Titik akhir yang baru mendukung penyelesaian obrolan Openai dan menanamkan API, tetapi fungsinya belum lengkap.
Proyek VLLM menyediakan dukungan untuk beberapa model untuk meningkatkan fleksibilitas API.
Singkatnya, peluncuran titik akhir baru Google memberikan pengembang opsi yang lebih fleksibel, tetapi fungsinya masih dalam tahap perbaikan, dan pengembangan di masa depan layak untuk dinantikan. Proyek -proyek seperti VLLM menyediakan cara lain bagi pengembang yang mencari dukungan model yang lebih luas, mempromosikan pengembangan berkelanjutan dari ekosistem model bahasa besar.