Google a récemment publié un nouveau point de terminaison pour l'API Gemini, visant à simplifier le processus de migration des solutions Openai aux Gémeaux. Cette décision est conçue pour fournir aux développeurs un moyen plus pratique de profiter de la puissance des Gémeaux. Le nouveau point de terminaison est actuellement en version bêta et ne prend en charge que certaines fonctionnalités de l'API OpenAI, telles que l'achèvement du chat et les API intégrées, et fournit un exemple de code pour l'utilisation du modèle Gemini via les appels de repos ou le SDK OpenAI officiel. Cela offre aux développeurs de nouvelles options pour basculer entre différents modèles de grande langue et déclenche des discussions sur l'industrie sur la future standardisation de l'API.
Google a récemment annoncé le lancement de son nouveau point de terminaison pour son API Gemini, visant à aider les développeurs qui adoptent déjà plus facilement des solutions Openai à Gemini. Ce nouveau point de terminaison est toujours en version bêta et ne prend en charge que certaines fonctionnalités OpenAI.
Selon Google, ce nouveau point de terminaison peut remplacer le point de terminaison d'OpenAI par un appel de repos direct ou un SDK officiel d'OpenAI. Par exemple, si vous avez un programme écrit à l'aide du SDK OpenAI (comme Python), vous pouvez modifier l'initialisation via le code suivant, en utilisant le modèle de Google:
à partir d'Openai Import Openai
Client = Openai (
api_key = "gemini_api_key",
base_url = "https://generativelanguage.googleapis.com/v1beta/openai/"
)
Dans le code, le développeur doit fournir une clé API Gemini, qui peut être écrite directement dans le code ou transmise via la variable d'environnement OpenAI_API_KEY. Pour générer du texte, vous pouvez utiliser l'API de complétion de chat, comme indiqué ci-dessous, en spécifiant le nom du modèle Gemini que vous souhaitez utiliser:
réponse = client.chat.completions.create (
Model = "Gemini-1.5-Flash",
n = 1,
messages = [
{"rôle": "système", "contenu": "Vous êtes un assistant utile."},
{
"rôle": "utilisateur",
"Contenu": "Expliquez-moi comment fonctionne l'IA"
}
]]
)
imprimer (réponse.choices [0] .Message)
De plus, le nouveau point de terminaison Gemini prend en charge l'API intégrée d'OpenAI pour mesurer les corrélations entre les chaînes de texte. En bref, l'API ENCHE mappe le texte dans les vecteurs des nombres de points flottants, que les développeurs peuvent utiliser pour rechercher des valeurs spécifiques, cluster du texte, détecter des exceptions et fournir des recommandations. L'extrait de code suivant montre comment utiliser cette fonctionnalité dans Gemini:
réponse = client.embeddings.create (
input = "Votre chaîne de texte est ici",
Model = "Text-Embedding-004"
)
print (réponse.data [0] .embedding)
Actuellement, l'API de complétion de chat et l'API ENCHED sont les seules fonctionnalités OpenAI qui peuvent être utilisées sur le modèle Gemini via le nouveau point de terminaison OpenAI. De plus, la prise en charge du téléchargement d'image et de la sortie structurée est limitée aux fonctionnalités limitées. Google a déclaré qu'il prévoyait d'ajouter plus de fonctionnalités OpenAI afin que les développeurs puissent utiliser les Gémeaux comme alternative à OpenAI, mais le délai spécifique n'est pas encore clair.
Dans la discussion de Reddit, les commentateurs ont salué la décision de Google, croyant qu'il offre aux utilisateurs de l'API OpenAI une solution pour échapper au verrouillage, bien que les distances implémentent une API standard pour faciliter une commutation facile entre les différents fournisseurs de modèles, il reste encore un long chemin à parcourir.
En tant qu'approche plus générale, le projet VLLM est conçu pour prendre en charge une variété de modèles de génération et d'intégration et de fournir un serveur compatible OpenAI. Avec VLLM, les développeurs peuvent utiliser Mistral, Llama, Llava et de nombreux autres modèles majeurs actuellement disponibles.
Introduction officielle: https://develovers.googleblog.com/en/gemini-is-now-accessible-from-the-openai-library/
Points clés:
Google lance de nouveaux points de terminaison pour l'API Gemini pour aider les développeurs à passer plus facilement aux Gemini.
Le nouveau point de terminaison prend en charge l'API d'achèvement et d'intégration de Chat d'Openai, mais sa fonctionnalité n'est pas encore terminée.
Le projet VLLM fournit une prise en charge de plusieurs modèles afin d'améliorer la flexibilité de l'API.
En bref, le lancement des nouveaux points de terminaison de Google offre aux développeurs des options plus flexibles, mais ses fonctions sont toujours au stade de l'amélioration, et le développement futur vaut la peine d'être attendu. Des projets tels que VLLM fournissent un autre moyen aux développeurs qui recherchent un soutien de modèle plus large, promouvant le développement durable de l'écosystème du modèle grand langage.