Googleは最近、Gemini APIの新しいエンドポイントをリリースし、Openai SolutionsからGeminiへの移行プロセスを簡素化することを目指しています。この動きは、ジェミニの力を活用するためのより便利な方法を開発者に提供するように設計されています。新しいエンドポイントは現在ベータ版であり、チャットの完了や埋め込みAPIなど、OpenAI APIのいくつかの機能のみをサポートしており、レストコールまたは公式Openai SDKを使用してGeminiモデルを使用するためのサンプルコードを提供します。 これにより、開発者がさまざまな大規模な言語モデルを切り替え、将来のAPI標準化に関する業界の議論をトリガーする新しいオプションが提供されます。
Googleは最近、Gemini APIの新しいエンドポイントの発売を発表しました。これは、Openaiソリューションを既に採用している開発者がGeminiに簡単に切り替えるのを支援することを目指しています。この新しいエンドポイントはまだベータ版であり、いくつかのOpenAI機能をサポートするだけです。
Googleによると、この新しいエンドポイントは、Openaiのエンドポイントを直接休憩またはOpenaiの公式SDKに置き換えることができます。たとえば、Openai SDK(Pythonなど)を使用してプログラムを作成した場合、Googleのモデルを使用して、次のコードを使用して初期化を変更できます。
Openai Import Openaiから
client = openai(
api_key = "gemini_api_key"、
base_url = "https://generativelanguage.googleapis.com/v1beta/openai/"
))
コードでは、開発者はGemini APIキーを提供する必要があります。GeminiAPIキーは、コードに直接記述するか、OpenAI_API_KEY環境変数を渡すことができます。テキストを生成するには、以下に示すようにチャット完了APIを使用して、使用するGeminiモデルの名前を指定できます。
Response = client.chat.completions.create(
Model = "Gemini-1.5-flash"、
n = 1、
メッセージ= [
{「役割」:「システム」、「コンテンツ」:「あなたは親切なアシスタントです。 "}、
{
「役割」:「ユーザー」、
「コンテンツ」:「AIの仕組みを説明してください」
}
]
))
print(Response.Choices [0] .Message)
さらに、新しいGeminiエンドポイントは、テキスト文字列間の相関を測定するためにOpenaiの組み込みAPIをサポートしています。要するに、埋め込まれたAPIはテキストを浮動小数点数のベクトルにマップします。これは、開発者が特定の値を検索し、テキストをクラスター化し、例外を検出し、推奨事項を提供するために使用できます。次のコードスニペットは、ジェミニでこの機能を使用する方法を示しています。
Response = client.embeddings.create(
input = "あなたのテキスト文字列はここにあります"、
model = "Text-embedding-004"
))
print(respons.data [0] .embeding)
現在、チャット完了APIおよび埋め込みAPIは、新しいOpenAIエンドポイントを介してGeminiモデルで使用できる唯一のOpenAI機能です。さらに、画像のアップロードと構造化された出力のサポートは、機能が限られています。 Googleは、開発者がOpenaiの代替としてGeminiを使用できるように、より多くのOpenai機能を追加する予定であると述べましたが、特定の時間枠はまだ明確ではありません。
Redditの議論では、コメンターはGoogleの動きを称賛し、OpenAI APIユーザーにロックをエスケープするソリューションを提供しますが、距離は異なるモデルプロバイダー間の簡単な切り替えを容易にする標準APIを実装していますが、まだ長い道のりがあります。
より一般的なアプローチとして、VLLMプロジェクトは、さまざまな世代と埋め込みモデルをサポートし、OpenAI互換サーバーを提供するように設計されています。 VLLMを使用すると、開発者はMistral、Llama、Llava、および現在利用可能な他の多くの主要なモデルを使用できます。
公式の紹介:https://developers.googleblog.com/en/gemini-is-now-accessible-from-the-penai-library/
キーポイント:
Googleは、Gemini APIの新しいエンドポイントを起動して、開発者がGeminiに簡単に切り替えるのに役立ちます。
新しいエンドポイントは、OpenAIのチャット完了とAPIの埋め込みをサポートしていますが、その機能はまだ完了していません。
VLLMプロジェクトは、APIの柔軟性を向上させるための複数のモデルのサポートを提供します。
要するに、Googleの新しいエンドポイントの発売は、開発者により柔軟なオプションを提供しますが、その機能はまだ改善の段階にあり、将来の開発は楽しみにしています。 VLLMなどのプロジェクトは、より広範なモデルサポートを求めて、大規模な言語モデルのエコシステムの持続可能な開発を促進する開発者に別の方法を提供します。