De nombreuses petites entreprises proposent gratuitement des API puissantes ou proposent un essai gratuit pouvant aller jusqu'à un an en fonction de votre utilisation. Nous examinerons certaines de ces API et explorerons leurs avantages et leur utilisation.
Voyage est une équipe de chercheurs et d'ingénieurs de premier plan en IA, créant des modèles d'intégration pour une meilleure récupération et RAG.
Aussi bon que les modèles d'intégration OpenAI
Prix : Actuellement gratuit (février 2024)
Documentation : https://docs.voyageai.com/
Commencez : https://docs.voyageai.com/
Modèles d'intégration pris en charge et bien d'autres à venir.
<iframe src="https://medium.com/media/f8464a95617451325678308e64d14308" frameborder=0></iframe>Pour installer la bibliothèque de voyages :
# Use pip to insatll the 'voyageai' Python package to the latest version.
pip install voyageai
Utilisons l'un des modèles d'intégration voyage-2 et voyons son résultat :
# Import the 'voyageai' module
import voyageai
# Create a 'Client' object from the 'voyageai' module and initialize it with your API key
vo = voyageai . Client ( api_key = "<your secret voyage api key>" )
# user query
user_query = "when apple is releasing their new Iphone?"
# The 'model' parameter is set to "voyage-2", and the 'input_type' parameter is set to "document"
documents_embeddings = vo . embed (
[ user_query ], model = "voyage-2" , input_type = "document"
). embeddings
# printing the embedding
print ( documents_embeddings )
########### OUTPUT ###########
[ 0.12 , 0.412 , 0.573 , ... 0.861 ] # dimension is 1024
########### OUTPUT ###########
Anyscale, la société derrière Ray, publie des API permettant aux développeurs LLM d'exécuter et d'affiner les LLM open source rapidement, de manière rentable et à grande échelle.
Exécution/mise au point d'un LLM Open Source puissant à un coût très faible ou gratuit
Prix (pas de carte de crédit) : niveau gratuit 10 $, où 0,15 $ par million/jetons
Documentation : https://docs.endpoints.anyscale.com/
Commencez : https://app.endpoints.anyscale.com/welcome
Modèles LLM et intégration pris en charge
<iframe src="https://medium.com/media/d063ecf567aa49f3bab642c0704e6d6e" frameborder=0></iframe>Les points de terminaison Anyscale fonctionnent avec la bibliothèque OpenAI :
# Use pip to insatll the 'openai' Python package to the latest version.
pip install openai
Utilisons l'un des LLM de génération de texte et voyons son résultat :
# Import necessary modules
import openai
# Define the Anyscale endpoint token
ANYSCALE_ENDPOINT_TOKEN = "<your secret anyscale api key>"
# Create an OpenAI client with the Anyscale base URL and API key
oai_client = openai . OpenAI (
base_url = "https://api.endpoints.anyscale.com/v1" ,
api_key = anyscale_key ,
)
# Define the OpenAI model to be used for chat completions
model = "mistralai/Mistral-7B-Instruct-v0.1"
# Define a prompt for the chat completion
prompt = '''hello, how are you?
'''
# Use the AnyScale model for chat completions
# Send a user message using the defined prompt
response = oai_client . chat . completions . create (
model = model ,
messages = [
{ "role" : "user" , "content" : prompt }
],
)
# printing the response
print ( response . choices [ 0 ]. message . content )
########### OUTPUT ###########
Hello ! I am just a computer program , so I dont have
feelings or emotions like a human does ...
########### OUTPUT ###########
Celui-ci, vous le connaissez peut-être déjà, mais il convient de le mentionner, Google a publié son Gemini Multi-Model l'année dernière, et son utilisation de l'API de niveau gratuit est ce qui le rend plus intéressant.
Discutez avec du texte et des images (similaire à GPT-4) et modèles d'intégration
Prix : version gratuite (60 requêtes par minute)
Documentation : https://ai.google.dev/docs
Commencez : https://makersuite.google.com/app/apikey
Modèles pris en charge
<iframe src="https://medium.com/media/b1f73ec8466b9931984f97394495355c" frameborder=0></iframe>Pour installer les bibliothèques requises
# Install necessary libraries
pip install google - generativeai grpcio grpcio - tools
Pour utiliser le modèle de texte gemini-pro
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro' )
# generating response
response = model . generate_content ( "What is the meaning of life?" )
# printing the response
print ( response . text )
########### OUTPUT ###########
he query of life purpose has perplexed people
across centuries ...
########### OUTPUT ###########
Pour utiliser le modèle d'image gemini-pro-vision
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro-vision' )
# loading Image
import PIL . Image
img = PIL . Image . open ( 'cat_wearing_hat.jpg' )
# chating with image
response = model . generate_content ([ img , "Is there a cat in this image?" ])
# printing the response
print ( response . text )
########### OUTPUT ###########
Yes there is a cat in this image
########### OUTPUT ###########
L'estimation de la profondeur de l'image consiste à déterminer à quelle distance se trouvent les objets dans une image. Il s'agit d'un problème important en vision par ordinateur car cela facilite des tâches telles que les voitures autonomes. Un espace Hugging Face de Lihe Young propose une API grâce à laquelle vous pouvez trouver la profondeur de l'image.
trouver la profondeur de l'image en quelques secondes sans stocker ni charger le modèle
Prix : gratuit (jeton HuggingFace requis)
Obtenez le jeton HuggingFace : https://huggingface.co/settings/tokens
Démo Web : https://huggingface.co/spaces/LiheYoung/Depth-Anything
Modèles pris en charge :
Pour installer les bibliothèques requises
# Install necessary libraries
pip install gradio_client
Finding image depth using depth - anything model .
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://liheyoung-depth-anything.hf.space/--replicas/odat1/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# image link or path
my_image = "house.jpg"
# Use the Client to make a prediction, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/on_submit" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# loading the result
from IPython . display import Image
image_path = result [ 0 ][ 1 ]
Image ( filename = image_path )
Vous pouvez créer un modèle de page Web à l'aide d'une API fournie par HuggingFace M4.
Prenez simplement une capture d'écran de la page Web et transmettez-la dans l'API.
Prix : gratuit (jeton HuggingFace requis)
Obtenez le jeton HuggingFace : https://huggingface.co/settings/tokens
Démo Web : https://huggingface… capture d'écran2html
Pour installer les bibliothèques requises
# Install necessary libraries
pip install gradio_client
Conversion d'une capture d'écran d'un site Web en code à l'aide du modèle de capture d'écran en code.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# website image link or path
my_image = "mywebpage_screenshot.jpg"
# Use the Client to generate code, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/model_inference" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
< html >
< style >
body {
...
< / body >
< / html >
########### OUTPUT ###########
Convertissez l'audio en texte à l'aide de l'API Whisper.
Convertissez simplement l'audio en texte à l'aide de l'API, sans charger le modèle Whisper.
Prix : gratuit (jeton HuggingFace requis)
Obtenez le jeton HuggingFace : https://huggingface.co/settings/tokens
Démo Web : https://câlins… murmure
Pour installer les bibliothèques requises
# Install necessary libraries
pip install gradio_client
Conversion de l'audio en texte à l'aide du modèle Whisper.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# audio link or path
my_image = "myaudio.mp4"
# Use the Client to generate a response, passing the headers parameter
result = client . predict (
my_audio ,
"transcribe" , # str in 'Task' Radio component
api_name = "/predict"
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
Hi , how are you ?
########### OUTPUT ###########
Il existe de nombreuses autres API que vous pouvez explorer via Hugging Face Spaces. De nombreuses PME proposent de puissants outils d'IA générative à un coût très faible, tels que les intégrations OpenAI, qui coûtent 0,00013 $ pour 1 000 /tokens. Assurez-vous de vérifier leurs licences, car de nombreuses API gratuites du niveau gratuit limitent les requêtes quotidiennes ou sont destinées à un usage non commercial.