Viele kleine Unternehmen bieten leistungsstarke APIs kostenlos an oder bieten eine kostenlose Testversion an, die je nach Nutzung bis zu einem Jahr dauern kann. Wir werden uns einige dieser APIs ansehen und ihren Nutzen und ihre Verwendung untersuchen.
Voyage ist ein Team führender KI-Forscher und -Ingenieure, das Einbettungsmodelle für einen besseren Abruf und RAG entwickelt.
So gut wie OpenAI-Einbettungsmodelle
Preis: Derzeit kostenlos (Februar 2024)
Dokumentation: https://docs.voyageai.com/
Erste Schritte: https://docs.voyageai.com/
Unterstützte Einbettungsmodelle und weitere folgen.
<iframe src="https://medium.com/media/f8464a95617451325678308e64d14308" frameborder=0></iframe>So installieren Sie die Reisebibliothek:
# Use pip to insatll the 'voyageai' Python package to the latest version.
pip install voyageai
Lassen Sie uns eines der Einbettungsmodelle voyage-2 verwenden und seine Ausgabe sehen:
# Import the 'voyageai' module
import voyageai
# Create a 'Client' object from the 'voyageai' module and initialize it with your API key
vo = voyageai . Client ( api_key = "<your secret voyage api key>" )
# user query
user_query = "when apple is releasing their new Iphone?"
# The 'model' parameter is set to "voyage-2", and the 'input_type' parameter is set to "document"
documents_embeddings = vo . embed (
[ user_query ], model = "voyage-2" , input_type = "document"
). embeddings
# printing the embedding
print ( documents_embeddings )
########### OUTPUT ###########
[ 0.12 , 0.412 , 0.573 , ... 0.861 ] # dimension is 1024
########### OUTPUT ###########
Anyscale, das Unternehmen hinter Ray, veröffentlicht APIs für LLM-Entwickler, um Open-Source-LLMs schnell, kosteneffizient und im großen Maßstab auszuführen und zu optimieren.
Betrieb/Feinabstimmung von leistungsstarkem Open-Source-LLM zu sehr geringen oder keinen Kosten
Preis (keine Kreditkarte): Kostenlose Stufe 10 $, wobei 0,15 $ pro Million/Tokens
Dokumentation: https://docs.endpoints.anyscale.com/
Erste Schritte: https://app.endpoints.anyscale.com/welcome
Unterstützte LLM- und Embedding-Modelle
<iframe src="https://medium.com/media/d063ecf567aa49f3bab642c0704e6d6e" frameborder=0></iframe>Anyscale-Endpunkte funktionieren mit der OpenAI-Bibliothek:
# Use pip to insatll the 'openai' Python package to the latest version.
pip install openai
Lassen Sie uns eines der Textgenerierungs-LLMs verwenden und die Ausgabe sehen:
# Import necessary modules
import openai
# Define the Anyscale endpoint token
ANYSCALE_ENDPOINT_TOKEN = "<your secret anyscale api key>"
# Create an OpenAI client with the Anyscale base URL and API key
oai_client = openai . OpenAI (
base_url = "https://api.endpoints.anyscale.com/v1" ,
api_key = anyscale_key ,
)
# Define the OpenAI model to be used for chat completions
model = "mistralai/Mistral-7B-Instruct-v0.1"
# Define a prompt for the chat completion
prompt = '''hello, how are you?
'''
# Use the AnyScale model for chat completions
# Send a user message using the defined prompt
response = oai_client . chat . completions . create (
model = model ,
messages = [
{ "role" : "user" , "content" : prompt }
],
)
# printing the response
print ( response . choices [ 0 ]. message . content )
########### OUTPUT ###########
Hello ! I am just a computer program , so I dont have
feelings or emotions like a human does ...
########### OUTPUT ###########
Das kennen Sie vielleicht schon, aber es ist erwähnenswert, dass Google letztes Jahr sein Gemini Multi-Model veröffentlicht hat und die Nutzung der kostenlosen API-Stufe es interessanter macht.
Chatten Sie mit Text und Bildern (ähnlich wie GPT-4) und integrieren Sie Modelle
Preis: Kostenlose Version (60 Abfragen pro Minute)
Dokumentation: https://ai.google.dev/docs
Erste Schritte: https://makersuite.google.com/app/apikey
Unterstützte Modelle
<iframe src="https://medium.com/media/b1f73ec8466b9931984f97394495355c" frameborder=0></iframe>Um erforderliche Bibliotheken zu installieren
# Install necessary libraries
pip install google - generativeai grpcio grpcio - tools
So verwenden Sie das Textmodell gemini-pro
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro' )
# generating response
response = model . generate_content ( "What is the meaning of life?" )
# printing the response
print ( response . text )
########### OUTPUT ###########
he query of life purpose has perplexed people
across centuries ...
########### OUTPUT ###########
Bildmodell Gemini-Pro-Vision verwenden
# importing google.generativeai as genai
import google . generativeai as genai
# setting the api key
genai . configure ( api_key = "<your secret gemini api key>" )
# setting the text model
model = genai . GenerativeModel ( 'gemini-pro-vision' )
# loading Image
import PIL . Image
img = PIL . Image . open ( 'cat_wearing_hat.jpg' )
# chating with image
response = model . generate_content ([ img , "Is there a cat in this image?" ])
# printing the response
print ( response . text )
########### OUTPUT ###########
Yes there is a cat in this image
########### OUTPUT ###########
Bei der Bildtiefenschätzung geht es darum herauszufinden, wie weit Objekte in einem Bild entfernt sind. Es handelt sich um ein wichtiges Problem im Bereich Computer Vision, da es bei Aufgaben wie selbstfahrenden Autos hilfreich ist. Der Bereich „A Hugging Face“ von Lihe Young bietet eine API, über die Sie die Bildtiefe ermitteln können.
Finden Sie die Bildtiefe in Sekundenschnelle, ohne das Modell zu speichern oder zu laden
Preis: Kostenlos (HuggingFace-Token erforderlich)
Holen Sie sich HuggingFace-Token: https://huggingface.co/settings/tokens
Webdemo: https://huggingface.co/spaces/LiheYoung/Depth-Anything
Unterstützte Modelle:
Um erforderliche Bibliotheken zu installieren
# Install necessary libraries
pip install gradio_client
Finding image depth using depth - anything model .
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://liheyoung-depth-anything.hf.space/--replicas/odat1/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# image link or path
my_image = "house.jpg"
# Use the Client to make a prediction, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/on_submit" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# loading the result
from IPython . display import Image
image_path = result [ 0 ][ 1 ]
Image ( filename = image_path )
Sie können eine Webseitenvorlage mithilfe einer von HuggingFace M4 bereitgestellten API erstellen.
Machen Sie einfach einen Screenshot der Webseite und übergeben Sie ihn an die API.
Preis: Kostenlos (HuggingFace-Token erforderlich)
Holen Sie sich HuggingFace-Token: https://huggingface.co/settings/tokens
Webdemo: https://huggingface … Screenshot2html
Um erforderliche Bibliotheken zu installieren
# Install necessary libraries
pip install gradio_client
Konvertieren von Website-Screenshots in Code mithilfe des Screenshot-to-Code-Modells.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# website image link or path
my_image = "mywebpage_screenshot.jpg"
# Use the Client to generate code, passing the headers parameter
result = client . predict (
my_image ,
api_name = "/model_inference" ,
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
< html >
< style >
body {
...
< / body >
< / html >
########### OUTPUT ###########
Konvertieren Sie Audio mithilfe der Whisper-API in Text.
Konvertieren Sie Audio einfach mithilfe der API in Text, ohne das Flüstermodell zu laden.
Preis: Kostenlos (HuggingFace-Token erforderlich)
Holen Sie sich HuggingFace-Token: https://huggingface.co/settings/tokens
Web-Demo: https://hugging … whisper
Um erforderliche Bibliotheken zu installieren
# Install necessary libraries
pip install gradio_client
Konvertieren von Audio in Text mithilfe des Whisper-Modells.
# Installing required library
from gradio_client import Client
# Your Hugging Face API token
huggingface_token = "YOUR_HUGGINGFACE_TOKEN"
# Create a Client instance with the URL of the Hugging Face model deployment
client = Client ( "https://huggingfacem4-screenshot2html.hf.space/--replicas/cpol9/" )
# Set the headers parameter with your Hugging Face API token
headers = { "Authorization" : f"Bearer { huggingface_token } " }
# audio link or path
my_image = "myaudio.mp4"
# Use the Client to generate a response, passing the headers parameter
result = client . predict (
my_audio ,
"transcribe" , # str in 'Task' Radio component
api_name = "/predict"
headers = headers # Pass the headers with the Hugging Face API token
)
# printing the output
printing ( result )
########### OUTPUT ###########
Hi , how are you ?
########### OUTPUT ###########
Es gibt viele weitere APIs, die Sie über Hugging Face Spaces erkunden können. Viele KMU-Unternehmen bieten leistungsstarke generative KI-Tools zu sehr geringen Kosten an, beispielsweise OpenAI-Einbettungen, die für 1K/Tokens 0,00013 US-Dollar kosten. Überprüfen Sie unbedingt ihre Lizenzen, da viele kostenlose APIs im kostenlosen Kontingent entweder die Anzahl der Anfragen pro Tag begrenzen oder für die nichtkommerzielle Nutzung bestimmt sind.