Muchas empresas de pequeña escala ofrecen API potentes sin costo o ofrecen una prueba gratuita que puede extenderse hasta un año según su uso. Analizaremos algunas de esas API y exploraremos sus beneficios y uso.
Voyage es un equipo de investigadores e ingenieros líderes en inteligencia artificial que crean modelos integrados para una mejor recuperación y RAG.
Tan bueno como los modelos integrados de OpenAI
Precio: Actualmente gratuito (febrero de 2024)
Documentación: https://docs.voyageai.com/
Comience: https://docs.voyageai.com/
Modelos de incrustación compatibles y más por venir.
<iframe src="https://medium.com/media/f8464a95617451325678308e64d14308" frameborder=0></iframe>Para instalar la biblioteca de viajes:
# Use pip to insatll the 'voyageai' Python package to the latest version.
pip install voyageai
usemos uno de los modelos integrados voyage-2 y veamos su resultado:
# Import the 'voyageai' module
import voyageai
# Create a 'Client' object from the 'voyageai' module and initialize it with your API key
vo = voyageai . Client ( api_key = "<your secret voyage api key>" )
# user query
user_query = "when apple is releasing their new Iphone?"
# The 'model' parameter is set to "voyage-2", and the 'input_type' parameter is set to "document"
documents_embeddings = vo . embed (
[ user_query ], model = "voyage-2" , input_type = "document"
). embeddings
# printing the embedding
print ( documents_embeddings )
########### OUTPUT ###########
[ 0.12 , 0.412 , 0.573 , ... 0.861 ] # dimension is 1024
########### OUTPUT ###########
Anyscale, la empresa detrás de Ray, lanza API para que los desarrolladores de LLM ejecuten y ajusten LLM de código abierto de forma rápida, rentable y a escala.
Ejecución/ajuste de un potente LLM de código abierto a un costo muy bajo o sin costo
Precio (sin tarjeta de crédito): Nivel gratuito $10, donde $0,15 por millón/tokens
Documentación: https://docs.endpoints.anyscale.com/
Comience: https://app.endpoints.anyscale.com/welcome
Modelos de integración y LLM compatibles
<iframe src="https://medium.com/media/d063ecf567aa49f3bab642c0704e6d6e" frameborder=0></iframe>Los puntos finales de Anyscale funcionan con la biblioteca OpenAI:
# Use pip to insatll the 'openai' Python package to the latest version.
pip install openai
usemos uno de los LLM de generación de texto y veamos su resultado:
# Import necessary modules
import openai
# Define the Anyscale endpoint token
ANYSCALE_ENDPOINT_TOKEN = "<your secret anyscale api key>"
# Create an OpenAI client with the Anyscale base URL and API key
oai_client = openai . OpenAI (
base_url = "https://api.endpoints.anyscale.com/v1" ,
api_key = anyscale_key ,
)
# Define the OpenAI model to be used for chat completions
model = "mistralai/Mistral-7B-Instruct-v0.1"
# Define a prompt for the chat completion
prompt = '''hello, how are you?
'''
# Use the AnyScale model for chat completions
# Send a user message using the defined prompt
response = oai_client . chat . completions . create (
model = model ,
messages = [
{ "role" : "user" , "content" : prompt }
],
)
# printing the response
print ( response . choices [ 0 ]. message . content )
########### OUTPUT ###########
Hello ! I am just a computer program , so I dont have
feelings or emotions like a human does ...
########### OUTPUT ###########
Quizás ya lo conozcas, pero vale la pena mencionarlo: Google lanzó su Gemini Multi-Model el año pasado y su uso de API de nivel gratuito es lo que lo hace más interesante.
Chat con texto e imágenes (similar a GPT-4) e incrustación de modelos
Precio: Versión gratuita (60 consultas por minuto)
Documentación: https://ai.google.dev/docs
Comience: https://makersuite.google.com/app/apikey
Modelos compatibles
<iframe src="https://medium.com/media/b1f73ec8466b9931984f97394495355c" frameborder=0></iframe>Para instalar las bibliotecas requeridas
# Install necessary libraries
pip install google - generativeai grpcio grpcio - tools
Para usar el modelo de texto gemini-pro
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro' )
# generating response
response = model . generate_content ( "What is the meaning of life?" )
# printing the response
print ( response . text )
########### OUTPUT ###########
he query of life purpose has perplexed people
across centuries ...
########### OUTPUT ###########
Para utilizar el modelo de imagen gemini-pro-vision
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro-vision' )
# loading Image
import PIL . Image
img = PIL . Image . open ( 'cat_wearing_hat.jpg' )
# chating with image
response = model . generate_content ([ img , "Is there a cat in this image?" ])
# printing the response
print ( response . text )
########### OUTPUT ###########
Yes there is a cat in this image
########### OUTPUT ###########
La estimación de la profundidad de una imagen consiste en determinar a qué distancia están los objetos de una imagen. Es un problema importante en la visión por computadora porque ayuda en tareas como los vehículos autónomos. Un espacio Hugging Face de Lihe Young ofrece una API a través de la cual puedes encontrar la profundidad de la imagen.
encuentre la profundidad de la imagen en segundos sin almacenar ni cargar el modelo
Precio: Gratis (se requiere token HuggingFace)
Obtenga el token HuggingFace: https://huggingface.co/settings/tokens
Demostración web: https://huggingface.co/spaces/LiheYoung/Depth-Anything
Modelos compatibles:
Para instalar las bibliotecas requeridas
# Install necessary libraries
pip install gradio_client
Finding image depth using depth - anything model .
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://liheyoung-depth-anything.hf.space/--replicas/odat1/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# image link or path
my_image = "house.jpg"
# Use the Client to make a prediction, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/on_submit" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# loading the result
from IPython . display import Image
image_path = result [ 0 ][ 1 ]
Image ( filename = image_path )
Puede crear una plantilla de página web utilizando una API proporcionada por HuggingFace M4.
Simplemente tome una captura de pantalla de la página web y pásela a la API.
Precio: Gratis (se requiere token HuggingFace)
Obtenga el token HuggingFace: https://huggingface.co/settings/tokens
Demostración web: https://huggingface... captura de pantalla2html
Para instalar las bibliotecas requeridas
# Install necessary libraries
pip install gradio_client
Conversión de capturas de pantalla de sitios web a código utilizando el modelo de captura de pantalla a código.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# website image link or path
my_image = "mywebpage_screenshot.jpg"
# Use the Client to generate code, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/model_inference" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
< html >
< style >
body {
...
< / body >
< / html >
########### OUTPUT ###########
Convierta audio a texto usando Whisper API.
Simplemente convierta audio a texto usando API, sin cargar el modelo de susurro.
Precio: Gratis (se requiere token HuggingFace)
Obtenga el token HuggingFace: https://huggingface.co/settings/tokens
Demostración web: https://abrazos... susurro
Para instalar las bibliotecas requeridas
# Install necessary libraries
pip install gradio_client
Conversión de audio a texto usando el modelo Whisper.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# audio link or path
my_image = "myaudio.mp4"
# Use the Client to generate a response, passing the headers parameter
result = client . predict (
my_audio ,
"transcribe" , # str in 'Task' Radio component
api_name = "/predict"
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
Hi , how are you ?
########### OUTPUT ###########
Hay muchas más API que puedes explorar a través de Hugging Face Spaces. Muchas pymes ofrecen potentes herramientas de IA generativa a un costo muy bajo, como las incorporaciones de OpenAI, que cuestan 0,00013 dólares por 1.000 tokens. Asegúrese de verificar sus licencias, ya que muchas API gratuitas en el nivel gratuito limitan las solicitudes por día o son para uso no comercial.