Google lanzó recientemente un nuevo punto final para la API de Gemini, con el objetivo de simplificar el proceso de migración de soluciones de OpenAI a Gemini. Este movimiento está diseñado para proporcionar a los desarrolladores una forma más conveniente de aprovechar el poder de Géminis. El nuevo punto final se encuentra actualmente en beta y admite solo algunas características de la API de OpenAI, como la finalización de chat y las API de incrustación, y proporciona código de muestra para usar el modelo Gemini a través de llamadas de descanso o el SDK oficial de OpenAI. Esto proporciona nuevas opciones para que los desarrolladores cambien entre diferentes modelos de idiomas y desencadenan las discusiones de la industria sobre la estandarización futura de API.
Google anunció recientemente el lanzamiento de su nuevo punto final para su API de Gemini, con el objetivo de ayudar a los desarrolladores que ya adoptan las soluciones de Operai a cambiar a Gemini con más facilidad. Este nuevo punto final todavía está en beta y solo proporciona soporte para algunas características de OpenAI.
Según Google, este nuevo punto final puede reemplazar el punto final de Openai con una llamada de descanso directo o un SDK oficial de OpenAI. Por ejemplo, si tiene un programa escrito utilizando el SDK de Operai (como Python), puede cambiar la inicialización a través del siguiente código, utilizando el modelo de Google:
Desde Operai Importa OpenAi
cliente = OpenAI (
api_key = "gemini_api_key",
base_url = "https://generativelanguage.googleapis.com/v1beta/openai/"
)
En el código, el desarrollador debe proporcionar una clave de API Gemini, que se puede escribir directamente en el código o pasar a través de la variable de entorno OpenAI_API_KEY. Para generar texto, puede usar la API de finalización de chat, como se muestra a continuación, especificando el nombre del modelo Gemini que desea usar:
respuesta = cliente.chat.completions.create (
modelo = "gemini-1.5-flash",
n = 1,
mensajes = [
{"rol": "Sistema", "Contenido": "Eres un asistente útil".
{
"rol": "usuario",
"Contenido": "Explícame cómo funciona la IA"
}
]
)
Imprimir (Respuesta.Choices [0]. Message)
Además, el nuevo punto final de Gemini admite la API integrada de OpenAI para medir las correlaciones entre las cadenas de texto. En resumen, la API de incrustación asigna el texto en vectores de números de puntos flotantes, que los desarrolladores pueden usar para buscar valores específicos, texto de clúster, detectar excepciones y proporcionar recomendaciones. El siguiente fragmento de código muestra cómo usar esta función en Gemini:
respuesta = client.embeddings.create (
input = "Su cadena de texto está aquí",
modelo = "Texto-Embeding-004"
)
print (respuesta.data [0] .Embedding)
Actualmente, la API de finalización de chat y la API de inserción son las únicas características de OpenAI que se pueden usar en el modelo Gemini a través del nuevo punto final de OpenAI. Además, el soporte para la carga de imágenes y la salida estructurada se limita a una funcionalidad limitada. Google dijo que planea agregar más características de Openai para que los desarrolladores puedan usar Gemini como alternativa a OpenAI, pero el período de tiempo específico aún no está claro.
En la discusión de Reddit, los comentaristas elogiaron el movimiento de Google, creyendo que proporciona a los usuarios de API de OpenAI una solución para escapar del bloqueo, aunque las distancias implementan una API estándar para facilitar el cambio fácil entre los diferentes proveedores de modelos, todavía hay un largo camino por recorrer.
Como un enfoque más general, el proyecto VLLM está diseñado para admitir una variedad de modelos de generación e integración y proporcionar un servidor compatible con OpenAI. Con VLLM, los desarrolladores pueden usar Mistral, LLAMA, LLAVA y muchos otros modelos principales actualmente disponibles.
Introducción oficial: https://developers.googleblog.com/en/gemini-is-now-accessible-from-the-openai-library/
Puntos clave:
Google lanza nuevos puntos finales para Gemini API para ayudar a los desarrolladores a cambiar a Gemini más fácilmente.
El nuevo punto final admite la API de finalización de chat e incrustación de Openai, pero su funcionalidad aún no está completa.
El proyecto VLLM proporciona soporte para múltiples modelos para mejorar la flexibilidad de las API.
En resumen, el lanzamiento de los nuevos puntos finales de Google proporciona a los desarrolladores opciones más flexibles, pero sus funciones aún están en la etapa de mejora, y vale la pena esperar el desarrollo futuro. Proyectos como VLLM proporcionan otra forma para los desarrolladores que buscan un soporte de modelos más amplio, promoviendo el desarrollo sostenible del ecosistema de modelos de lenguaje grande.