Muitas empresas de pequeno porte estão oferecendo APIs poderosas sem nenhum custo ou fornecendo uma avaliação gratuita que pode se estender por até um ano com base no seu uso. Analisaremos algumas dessas APIs e exploraremos seus benefícios e uso.
A Voyage é uma equipe de pesquisadores e engenheiros líderes em IA, construindo modelos de incorporação para melhor recuperação e RAG.
Tão bom quanto os modelos de incorporação OpenAI
Preço: atualmente gratuito (fevereiro de 2024)
Documentação: https://docs.voyageai.com/
Primeiros passos: https://docs.voyageai.com/
Modelos de incorporação suportados e muito mais por vir.
<iframe src="https://medium.com/media/f8464a95617451325678308e64d14308" frameborder=0></iframe>Para instalar a biblioteca de viagens:
# Use pip to insatll the 'voyageai' Python package to the latest version.
pip install voyageai
vamos usar um dos modelos de incorporação voyage-2 e ver sua saída:
# Import the 'voyageai' module
import voyageai
# Create a 'Client' object from the 'voyageai' module and initialize it with your API key
vo = voyageai . Client ( api_key = "<your secret voyage api key>" )
# user query
user_query = "when apple is releasing their new Iphone?"
# The 'model' parameter is set to "voyage-2", and the 'input_type' parameter is set to "document"
documents_embeddings = vo . embed (
[ user_query ], model = "voyage-2" , input_type = "document"
). embeddings
# printing the embedding
print ( documents_embeddings )
########### OUTPUT ###########
[ 0.12 , 0.412 , 0.573 , ... 0.861 ] # dimension is 1024
########### OUTPUT ###########
Anyscale, a empresa por trás do Ray, lança APIs para desenvolvedores de LLM executarem e ajustarem LLMs de código aberto de forma rápida, econômica e em escala.
Execução/ajuste poderoso LLM de código aberto a um custo muito baixo ou nenhum custo
Preço (sem cartão de crédito): Nível gratuito de US$ 10, onde US$ 0,15 por milhão/tokens
Documentação: https://docs.endpoints.anyscale.com/
Primeiros passos: https://app.endpoints.anyscale.com/welcome
Modelos LLM e Incorporação suportados
<iframe src="https://medium.com/media/d063ecf567aa49f3bab642c0704e6d6e" frameborder=0></iframe>Endpoints Anyscale funcionam com a biblioteca OpenAI:
# Use pip to insatll the 'openai' Python package to the latest version.
pip install openai
vamos usar um dos LLM de geração de texto e ver seu resultado:
# Import necessary modules
import openai
# Define the Anyscale endpoint token
ANYSCALE_ENDPOINT_TOKEN = "<your secret anyscale api key>"
# Create an OpenAI client with the Anyscale base URL and API key
oai_client = openai . OpenAI (
base_url = "https://api.endpoints.anyscale.com/v1" ,
api_key = anyscale_key ,
)
# Define the OpenAI model to be used for chat completions
model = "mistralai/Mistral-7B-Instruct-v0.1"
# Define a prompt for the chat completion
prompt = '''hello, how are you?
'''
# Use the AnyScale model for chat completions
# Send a user message using the defined prompt
response = oai_client . chat . completions . create (
model = model ,
messages = [
{ "role" : "user" , "content" : prompt }
],
)
# printing the response
print ( response . choices [ 0 ]. message . content )
########### OUTPUT ###########
Hello ! I am just a computer program , so I dont have
feelings or emotions like a human does ...
########### OUTPUT ###########
Este você já deve conhecer, mas vale a pena mencionar que o Google lançou seu Gemini Multi-Model no ano passado, e seu uso de API de nível gratuito é o que o torna mais interessante.
Bate-papo com texto e imagens (semelhante ao GPT-4) e modelos de incorporação
Preço: Versão Gratuita (60 Consultas por minuto)
Documentação: https://ai.google.dev/docs
Primeiros passos: https://makersuite.google.com/app/apikey
Modelos Suportados
<iframe src="https://medium.com/media/b1f73ec8466b9931984f97394495355c" frameborder=0></iframe>Para instalar as bibliotecas necessárias
# Install necessary libraries
pip install google - generativeai grpcio grpcio - tools
Para usar o modelo de texto gemini-pro
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro' )
# generating response
response = model . generate_content ( "What is the meaning of life?" )
# printing the response
print ( response . text )
########### OUTPUT ###########
he query of life purpose has perplexed people
across centuries ...
########### OUTPUT ###########
Para usar o modelo de imagem gemini-pro-vision
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro-vision' )
# loading Image
import PIL . Image
img = PIL . Image . open ( 'cat_wearing_hat.jpg' )
# chating with image
response = model . generate_content ([ img , "Is there a cat in this image?" ])
# printing the response
print ( response . text )
########### OUTPUT ###########
Yes there is a cat in this image
########### OUTPUT ###########
A estimativa da profundidade da imagem trata de descobrir a que distância estão os objetos em uma imagem. É um problema importante na visão computacional porque ajuda em tarefas como dirigir carros autônomos. Um espaço Hugging Face de Lihe Young oferece uma API por meio da qual você pode encontrar a profundidade da imagem.
encontre a profundidade da imagem em segundos sem armazenar ou carregar o modelo
Preço: Gratuito (token HuggingFace obrigatório)
Obtenha o token HuggingFace: https://huggingface.co/settings/tokens
Demonstração na Web: https://huggingface.co/spaces/LiheYoung/Depth-Anything
Modelos suportados:
Para instalar as bibliotecas necessárias
# Install necessary libraries
pip install gradio_client
Finding image depth using depth - anything model .
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://liheyoung-depth-anything.hf.space/--replicas/odat1/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# image link or path
my_image = "house.jpg"
# Use the Client to make a prediction, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/on_submit" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# loading the result
from IPython . display import Image
image_path = result [ 0 ][ 1 ]
Image ( filename = image_path )
Você pode criar um modelo de página da web usando uma API fornecida pelo HuggingFace M4.
Basta tirar uma captura de tela da página da web e passá-la na API.
Preço: Gratuito (token HuggingFace obrigatório)
Obtenha o token HuggingFace: https://huggingface.co/settings/tokens
Demonstração na Web: https://huggingface… screenshot2html
Para instalar as bibliotecas necessárias
# Install necessary libraries
pip install gradio_client
Convertendo captura de tela do site em código usando o modelo de captura de tela em código.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# website image link or path
my_image = "mywebpage_screenshot.jpg"
# Use the Client to generate code, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/model_inference" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
< html >
< style >
body {
...
< / body >
< / html >
########### OUTPUT ###########
Converta áudio em texto usando Whisper API.
Basta converter áudio em texto usando API, sem carregar o modelo Whisper.
Preço: Gratuito (token HuggingFace obrigatório)
Obtenha o token HuggingFace: https://huggingface.co/settings/tokens
Demonstração na Web: https://abraçar…sussurrar
Para instalar as bibliotecas necessárias
# Install necessary libraries
pip install gradio_client
Convertendo áudio em texto usando o modelo Whisper.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# audio link or path
my_image = "myaudio.mp4"
# Use the Client to generate a response, passing the headers parameter
result = client . predict (
my_audio ,
"transcribe" , # str in 'Task' Radio component
api_name = "/predict"
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
Hi , how are you ?
########### OUTPUT ###########
Existem muito mais APIs que você pode explorar por meio do Hugging Face Spaces. Muitas PMEs fornecem ferramentas poderosas de IA generativa a um custo muito baixo, como embeddings OpenAI, que custam US$ 0,00013 por 1K/Tokens. Certifique-se de verificar suas licenças, pois muitas APIs gratuitas no nível gratuito limitam solicitações por dia ou são para uso não comercial.