多くの小規模企業は、強力な API を無料で提供したり、使用量に応じて最大 1 年間延長される無料トライアルを提供したりしています。これらの API のいくつかを調べて、その利点と使用法を探っていきます。
Voyage は、優れた検索と RAG のための埋め込みモデルを構築している、AI 研究者とエンジニアをリードするチームです。
OpenAI 埋め込みモデルと同等の優れた性能
価格:現在無料(2024年2月)
ドキュメント: https://docs.voyageai.com/
始めましょう: https://docs.voyageai.com/
サポートされる埋め込みモデルなど、さらに多くのモデルが追加される予定です。
<iframe src="https://medium.com/media/f8464a95617451325678308e64d14308" Frameborder=0></iframe>voyage ライブラリをインストールするには:
# Use pip to insatll the 'voyageai' Python package to the latest version.
pip install voyageai
埋め込みモデル voyage-2 の 1 つを使用して、その出力を見てみましょう。
# Import the 'voyageai' module
import voyageai
# Create a 'Client' object from the 'voyageai' module and initialize it with your API key
vo = voyageai . Client ( api_key = "<your secret voyage api key>" )
# user query
user_query = "when apple is releasing their new Iphone?"
# The 'model' parameter is set to "voyage-2", and the 'input_type' parameter is set to "document"
documents_embeddings = vo . embed (
[ user_query ], model = "voyage-2" , input_type = "document"
). embeddings
# printing the embedding
print ( documents_embeddings )
########### OUTPUT ###########
[ 0.12 , 0.412 , 0.573 , ... 0.861 ] # dimension is 1024
########### OUTPUT ###########
Ray の背後にある会社 Anyscale は、LLM 開発者がオープンソース LLM を迅速、コスト効率よく、大規模に実行および微調整できるようにするための API をリリースしています。
強力なオープンソース LLM を非常に低コストまたは無料で実行/微調整
価格 (クレジット カードなし): 無料枠 $10、100 万/トークンあたり $0.15
ドキュメント: https://docs.endpoints.anyscale.com/
始めましょう: https://app.endpoints.anyscale.com/welcome
サポートされている LLM および埋め込みモデル
<iframe src="https://medium.com/media/d063ecf567aa49f3bab642c0704e6d6e" フレームボーダー=0></iframe>Anyscale エンドポイントは OpenAI ライブラリで動作します。
# Use pip to insatll the 'openai' Python package to the latest version.
pip install openai
テキスト生成 LLM の 1 つを使用して、その出力を見てみましょう。
# Import necessary modules
import openai
# Define the Anyscale endpoint token
ANYSCALE_ENDPOINT_TOKEN = "<your secret anyscale api key>"
# Create an OpenAI client with the Anyscale base URL and API key
oai_client = openai . OpenAI (
base_url = "https://api.endpoints.anyscale.com/v1" ,
api_key = anyscale_key ,
)
# Define the OpenAI model to be used for chat completions
model = "mistralai/Mistral-7B-Instruct-v0.1"
# Define a prompt for the chat completion
prompt = '''hello, how are you?
'''
# Use the AnyScale model for chat completions
# Send a user message using the defined prompt
response = oai_client . chat . completions . create (
model = model ,
messages = [
{ "role" : "user" , "content" : prompt }
],
)
# printing the response
print ( response . choices [ 0 ]. message . content )
########### OUTPUT ###########
Hello ! I am just a computer program , so I dont have
feelings or emotions like a human does ...
########### OUTPUT ###########
これはすでにご存知かもしれませんが、言及する価値はあります。Google は昨年 Gemini マルチモデルをリリースしました。その無料枠 API の使用が、それをさらに興味深いものにしています。
テキストと画像 (GPT-4 と同様) および埋め込みモデルを使用したチャット
価格: 無料版 (1 分あたり 60 クエリ)
ドキュメント: https://ai.google.dev/docs
始めましょう: https://makersuite.google.com/app/apikey
対応機種
<iframe src="https://medium.com/media/b1f73ec8466b9931984f97394495355c" Frameborder=0></iframe>必要なライブラリをインストールするには
# Install necessary libraries
pip install google - generativeai grpcio grpcio - tools
テキストモデルgemini-proを使用するには
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro' )
# generating response
response = model . generate_content ( "What is the meaning of life?" )
# printing the response
print ( response . text )
########### OUTPUT ###########
he query of life purpose has perplexed people
across centuries ...
########### OUTPUT ###########
イメージモデル gemini-pro-vision を使用するには
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro-vision' )
# loading Image
import PIL . Image
img = PIL . Image . open ( 'cat_wearing_hat.jpg' )
# chating with image
response = model . generate_content ([ img , "Is there a cat in this image?" ])
# printing the response
print ( response . text )
########### OUTPUT ###########
Yes there is a cat in this image
########### OUTPUT ###########
画像の奥行き推定は、画像内のオブジェクトがどのくらい離れているかを把握することです。これは自動運転車などのタスクに役立つため、コンピューター ビジョンにおける重要な問題です。 Lihe Young の Hugging Face スペースは、画像の奥行きを見つけることができる API を提供します。
モデルの保存や読み込みを行わずに画像深度を数秒で検索します
価格:無料(HuggingFaceトークンが必要)
HuggingFace トークンを取得: https://huggingface.co/settings/tokens
ウェブデモ: https://huggingface.co/spaces/LiheYoung/Depth-Anything
サポートされているモデル:
必要なライブラリをインストールするには
# Install necessary libraries
pip install gradio_client
Finding image depth using depth - anything model .
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://liheyoung-depth-anything.hf.space/--replicas/odat1/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# image link or path
my_image = "house.jpg"
# Use the Client to make a prediction, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/on_submit" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# loading the result
from IPython . display import Image
image_path = result [ 0 ][ 1 ]
Image ( filename = image_path )
HuggingFace M4 が提供する API を使用して、Web ページのテンプレートを作成できます。
Webページのスクリーンショットを撮ってAPIに渡すだけです。
価格:無料(HuggingFaceトークンが必要)
HuggingFace トークンを取得: https://huggingface.co/settings/tokens
ウェブデモ: https://huggingface … スクリーンショット2html
必要なライブラリをインストールするには
# Install necessary libraries
pip install gradio_client
スクリーンショットからコードへのモデルを使用して、Web サイトのスクリーンショットをコードに変換します。
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# website image link or path
my_image = "mywebpage_screenshot.jpg"
# Use the Client to generate code, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/model_inference" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
< html >
< style >
body {
...
< / body >
< / html >
########### OUTPUT ###########
Whisper API を使用して音声をテキストに変換します。
ささやきモデルをロードせずに、API を使用して音声をテキストに変換するだけです。
価格:無料(HuggingFaceトークンが必要)
HuggingFace トークンを取得: https://huggingface.co/settings/tokens
ウェブデモ: https://ハグ … ささやき
必要なライブラリをインストールするには
# Install necessary libraries
pip install gradio_client
Whisper モデルを使用して音声をテキストに変換します。
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# audio link or path
my_image = "myaudio.mp4"
# Use the Client to generate a response, passing the headers parameter
result = client . predict (
my_audio ,
"transcribe" , # str in 'Task' Radio component
api_name = "/predict"
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
Hi , how are you ?
########### OUTPUT ###########
Hugging Face Spaces を通じて探索できる API は他にもたくさんあります。多くの中小企業企業は、1K/トークンあたり 0.00013 ドルの OpenAI エンベディングなど、強力な生成 AI ツールを非常に低コストで提供しています。無料枠の多くの無料 API は 1 日あたりのリクエストに制限があるか、非営利使用を目的としているため、必ずライセンスを確認してください。