많은 소규모 회사에서는 강력한 API를 무료로 제공하거나 사용량에 따라 최대 1년까지 연장될 수 있는 무료 평가판을 제공하고 있습니다. 우리는 이러한 API 중 일부를 살펴보고 그 이점과 사용법을 살펴보겠습니다.
Voyage는 더 나은 검색 및 RAG를 위한 임베딩 모델을 구축하는 선도적인 AI 연구원 및 엔지니어로 구성된 팀입니다.
OpenAI 임베딩 모델만큼 우수함
가격: 현재 무료(2024년 2월)
문서: https://docs.voyageai.com/
시작하기: https://docs.voyageai.com/
지원되는 임베딩 모델 등이 추가될 예정입니다.
<iframe src="https://medium.com/media/f8464a95617451325678308e64d14308"frameborder=0></iframe>항해 라이브러리를 설치하려면:
# Use pip to insatll the 'voyageai' Python package to the latest version.
pip install voyageai
임베딩 모델 voyage-2 중 하나를 사용하고 그 출력을 살펴보겠습니다.
# Import the 'voyageai' module
import voyageai
# Create a 'Client' object from the 'voyageai' module and initialize it with your API key
vo = voyageai . Client ( api_key = "<your secret voyage api key>" )
# user query
user_query = "when apple is releasing their new Iphone?"
# The 'model' parameter is set to "voyage-2", and the 'input_type' parameter is set to "document"
documents_embeddings = vo . embed (
[ user_query ], model = "voyage-2" , input_type = "document"
). embeddings
# printing the embedding
print ( documents_embeddings )
########### OUTPUT ###########
[ 0.12 , 0.412 , 0.573 , ... 0.861 ] # dimension is 1024
########### OUTPUT ###########
Ray의 뒤를 잇는 회사인 Anyscale은 LLM 개발자가 오픈 소스 LLM을 신속하고 비용 효율적이며 규모에 맞게 실행하고 세부 조정할 수 있는 API를 출시합니다.
매우 저렴하거나 무료로 강력한 오픈 소스 LLM 실행/미세 조정
가격(신용카드 없음): 무료 등급 $10, 여기서 백만/토큰당 $0.15
문서: https://docs.endpoints.anyscale.com/
시작하기: https://app.endpoints.anyscale.com/welcome
지원되는 LLM 및 임베딩 모델
<iframe src="https://medium.com/media/d063ecf567aa49f3bab642c0704e6d6e"frameborder=0></iframe>Anyscale 엔드포인트는 OpenAI 라이브러리와 함께 작동합니다.
# Use pip to insatll the 'openai' Python package to the latest version.
pip install openai
텍스트 생성 LLM 중 하나를 사용하고 그 출력을 살펴보겠습니다.
# Import necessary modules
import openai
# Define the Anyscale endpoint token
ANYSCALE_ENDPOINT_TOKEN = "<your secret anyscale api key>"
# Create an OpenAI client with the Anyscale base URL and API key
oai_client = openai . OpenAI (
base_url = "https://api.endpoints.anyscale.com/v1" ,
api_key = anyscale_key ,
)
# Define the OpenAI model to be used for chat completions
model = "mistralai/Mistral-7B-Instruct-v0.1"
# Define a prompt for the chat completion
prompt = '''hello, how are you?
'''
# Use the AnyScale model for chat completions
# Send a user message using the defined prompt
response = oai_client . chat . completions . create (
model = model ,
messages = [
{ "role" : "user" , "content" : prompt }
],
)
# printing the response
print ( response . choices [ 0 ]. message . content )
########### OUTPUT ###########
Hello ! I am just a computer program , so I dont have
feelings or emotions like a human does ...
########### OUTPUT ###########
이미 알고 계시겠지만 언급할 가치가 있는 내용입니다. Google은 작년에 Gemini Multi-Model을 출시했는데, 무료 계층 API 사용이 이를 더욱 흥미롭게 만듭니다.
텍스트 및 이미지로 채팅(GPT-4와 유사) 및 임베딩 모델
가격: 무료 버전(분당 60개 쿼리)
문서: https://ai.google.dev/docs
시작하기: https://makersuite.google.com/app/apikey
지원되는 모델
<iframe src="https://medium.com/media/b1f73ec8466b9931984f97394495355c"frameborder=0></iframe>필수 라이브러리를 설치하려면
# Install necessary libraries
pip install google - generativeai grpcio grpcio - tools
텍스트 모델 gemini-pro를 사용하려면
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro' )
# generating response
response = model . generate_content ( "What is the meaning of life?" )
# printing the response
print ( response . text )
########### OUTPUT ###########
he query of life purpose has perplexed people
across centuries ...
########### OUTPUT ###########
이미지 모델 gemini-pro-vision을 사용하려면
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro-vision' )
# loading Image
import PIL . Image
img = PIL . Image . open ( 'cat_wearing_hat.jpg' )
# chating with image
response = model . generate_content ([ img , "Is there a cat in this image?" ])
# printing the response
print ( response . text )
########### OUTPUT ###########
Yes there is a cat in this image
########### OUTPUT ###########
이미지 깊이 추정은 이미지에서 객체가 얼마나 멀리 떨어져 있는지 파악하는 것입니다. 자율주행차 등의 작업에 도움이 되기 때문에 컴퓨터 비전에서는 중요한 문제입니다. Lihe Young의 Hugging Face 공간은 이미지 깊이를 찾을 수 있는 API를 제공합니다.
모델을 저장하거나 로드하지 않고도 몇 초 안에 이미지 깊이를 찾을 수 있습니다.
가격: 무료(HuggingFace 토큰 필요)
HuggingFace 토큰 받기: https://huggingface.co/settings/tokens
웹 데모: https://huggingface.co/spaces/LiheYoung/Depth-Anything
지원되는 모델:
필수 라이브러리를 설치하려면
# Install necessary libraries
pip install gradio_client
Finding image depth using depth - anything model .
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://liheyoung-depth-anything.hf.space/--replicas/odat1/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# image link or path
my_image = "house.jpg"
# Use the Client to make a prediction, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/on_submit" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# loading the result
from IPython . display import Image
image_path = result [ 0 ][ 1 ]
Image ( filename = image_path )
HuggingFace M4에서 제공하는 API를 사용하여 웹페이지 템플릿을 만들 수 있습니다.
웹페이지의 스크린샷을 찍어 API에 전달하면 됩니다.
가격: 무료(HuggingFace 토큰 필요)
HuggingFace 토큰 받기: https://huggingface.co/settings/tokens
웹 데모: https://huggingface … 스크린샷2html
필수 라이브러리를 설치하려면
# Install necessary libraries
pip install gradio_client
스크린샷-코드 모델을 사용하여 웹사이트 스크린샷을 코드로 변환합니다.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# website image link or path
my_image = "mywebpage_screenshot.jpg"
# Use the Client to generate code, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/model_inference" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
< html >
< style >
body {
...
< / body >
< / html >
########### OUTPUT ###########
Whisper API를 사용하여 오디오를 텍스트로 변환합니다.
속삭임 모델을 로드하지 않고 API를 사용하여 오디오를 텍스트로 변환하세요.
가격: 무료(HuggingFace 토큰 필요)
HuggingFace 토큰 받기: https://huggingface.co/settings/tokens
웹 데모: https://hugging … 속삭임
필수 라이브러리를 설치하려면
# Install necessary libraries
pip install gradio_client
Whisper 모델을 사용하여 오디오를 텍스트로 변환합니다.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# audio link or path
my_image = "myaudio.mp4"
# Use the Client to generate a response, passing the headers parameter
result = client . predict (
my_audio ,
"transcribe" , # str in 'Task' Radio component
api_name = "/predict"
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
Hi , how are you ?
########### OUTPUT ###########
Hugging Face Spaces를 통해 탐색할 수 있는 더 많은 API가 있습니다. 많은 중소기업 회사는 1K/토큰당 $0.00013의 비용이 드는 OpenAI 임베딩과 같은 강력한 생성 AI 도구를 매우 저렴한 비용으로 제공합니다. 무료 등급의 많은 무료 API는 일일 요청 수를 제한하거나 비상업적 용도로 사용되므로 라이선스를 확인하세요.