Недавно Google выпустил новую конечную точку для API Gemini, направленную на упрощение процесса миграции с решений Openai до Gemini. Этот шаг предназначен для того, чтобы предоставить разработчикам более удобный способ воспользоваться силой Близнецов. Новая конечная точка в настоящее время находится в бета -версии и поддерживает только некоторые функции API OpenAI, такие как завершение чата и встраиваемые API, и предоставляет пример кода для использования модели Gemini с помощью вызовов REST или официального SDK OpenAI. Это предоставляет разработчикам новые варианты переключения между различными крупными языковыми моделями и запусками в отраслевых дискуссиях о будущей стандартизации API.
Недавно Google объявил о запуске своей новой конечной точки для своего API Gemini, стремясь помочь разработчикам, которые уже приняли решения OpenAI, легче переключиться на Близнецы. Эта новая конечная точка все еще находится в бета -версии и обеспечивает только поддержку некоторых функций Openai.
Согласно Google, эта новая конечная точка может заменить конечную точку Openai на вызов прямого отдыха или официального SDK Openai. Например, если у вас есть программа, написанная с использованием SDK OpenAI (например, Python), вы можете изменить инициализацию через следующий код, используя модель Google:
от Openai Importai Openai
Client = OpenAI (
api_key = "gemini_api_key",
base_url = "https://generativeluganguage.googleapis.com/v1beta/openai/"
)
В коде разработчик должен предоставить API -ключ Gemini, который может быть записан непосредственно в коде или проходить через переменную среды OpenAI_API_KEY. Чтобы сгенерировать текст, вы можете использовать API завершения чата, как показано ниже, указав имя модели Gemini, которую вы хотите использовать:
response = client.chat.completions.create (
model = "Gemini-1.5-Flash",
n = 1,
Сообщения = [
{«Роль»: «Система», «Контент»: «Вы полезный помощник»},
{
«Роль»: «Пользователь»,
«Контент»: «Объясните мне, как работает ИИ»
}
]
)
print (response.choices [0] .message)
Кроме того, новая конечная точка Близнецов поддерживает встроенный API OpenAI для измерения корреляций между текстовыми строками. Короче говоря, встроенный API -карты текста в векторы номеров с плавающими темпами, которые разработчики могут использовать для поиска конкретных значений, текста кластера, обнаружения исключений и предоставления рекомендаций. Следующий фрагмент кода показывает, как использовать эту функцию в Gemini:
response = client.embeddings.create (
input = "ваша текстовая строка здесь",
Model = "Text-Embedding-004"
)
print (response.data [0] .embedding)
В настоящее время API завершения чата и API Embed API являются единственными функциями OpenAI, которые можно использовать на модели Близнецов через новую конечную точку OpenAI. Кроме того, поддержка загрузки изображения и структурированного выхода ограничена ограниченной функциональностью. Google заявила, что планирует добавить больше функций OpenAI, чтобы разработчики могли использовать Близнецы в качестве альтернативы OpenAI, но конкретный срок еще не ясен.
В обсуждении Reddit, комментаторы высоко оценили ход Google, полагая, что он предоставляет пользователям API OpenAI решение, чтобы избежать блокировки, хотя расстояния реализуют стандартный API, чтобы облегчить простые переключения между различными поставщиками моделей, еще предстоит пройти долгий путь.
В качестве более общего подхода проект VLLM предназначен для поддержки различных моделей генерации и встраивания и предоставления OpenAI-совместимого сервера. С помощью VLLM разработчики могут использовать MiStral, Llama, Llava и многие другие основные модели, доступные в настоящее время.
Официальное введение: https://developers.googleblog.com/en/gemini-is-now-cceapbure-from-the-openai-library/
Ключевые моменты:
Google запускает новые конечные точки для API Gemini, чтобы помочь разработчикам более легко переключиться на Близнецы.
Новая конечная точка поддерживает завершение чата Openai и внедрение API, но его функциональность еще не завершена.
Проект VLLM обеспечивает поддержку нескольким моделям для повышения гибкости API.
Короче говоря, запуск новых конечных точек Google предоставляет разработчикам более гибкие варианты, но его функции все еще находятся на стадии улучшения, и стоит рассчитывать на будущее развитие. Такие проекты, как VLLM, обеспечивают другой способ для разработчиков, стремящихся к более широкой поддержке моделей, способствуя устойчивому развитию экосистемы крупной языковой модели.