Startseite | Dokumentation | Blog | Zwietracht | Twitter
Neum AI ist eine Datenplattform, die Entwicklern hilft, ihre Daten zu nutzen, um große Sprachmodelle durch Retrieval Augmented Generation (RAG) zu kontextualisieren. Dazu gehört das Extrahieren von Daten aus vorhandenen Datenquellen wie Dokumentenspeicher und NoSQL, das Verarbeiten der Inhalte in Vektoreinbettungen und das Einspeisen der Vektoreinbettungen in Vektordatenbanken zur Ähnlichkeitssuche.
Es bietet Ihnen eine umfassende Lösung für RAG, die mit Ihrer Anwendung skaliert werden kann und den Zeitaufwand für die Integration von Diensten wie Datenkonnektoren, Einbettungsmodellen und Vektordatenbanken reduziert.
Sie erreichen unser Team entweder per E-Mail ([email protected]), über Discord oder indem Sie einen Anruf mit uns vereinbaren.
Melden Sie sich noch heute unter Dashboard.neum.ai an. Sehen Sie sich unseren Schnellstart an, um loszulegen.
Die Neum AI Cloud unterstützt eine groß angelegte, verteilte Architektur, um Millionen von Dokumenten durch Vektoreinbettung auszuführen. Den vollständigen Funktionsumfang finden Sie unter: Cloud vs. lokal
Installieren Sie das neumai
-Paket:
pip install neumai
Um Ihre ersten Datenpipelines zu erstellen, besuchen Sie unseren Schnellstart.
Auf hoher Ebene besteht eine Pipeline aus einer oder mehreren Quellen zum Abrufen von Daten, einem Einbettungskonnektor zum Vektorisieren des Inhalts und einem Senkenkonnektor zum Speichern dieser Vektoren. Mit diesem Codeausschnitt erstellen wir all dies und führen eine Pipeline aus:
from neumai . DataConnectors . WebsiteConnector import WebsiteConnector
from neumai . Shared . Selector import Selector
from neumai . Loaders . HTMLLoader import HTMLLoader
from neumai . Chunkers . RecursiveChunker import RecursiveChunker
from neumai . Sources . SourceConnector import SourceConnector
from neumai . EmbedConnectors import OpenAIEmbed
from neumai . SinkConnectors import WeaviateSink
from neumai . Pipelines import Pipeline
website_connector = WebsiteConnector (
url = "https://www.neum.ai/post/retrieval-augmented-generation-at-scale" ,
selector = Selector (
to_metadata = [ 'url' ]
)
)
source = SourceConnector (
data_connector = website_connector ,
loader = HTMLLoader (),
chunker = RecursiveChunker ()
)
openai_embed = OpenAIEmbed (
api_key = "<OPEN AI KEY>" ,
)
weaviate_sink = WeaviateSink (
url = "your-weaviate-url" ,
api_key = "your-api-key" ,
class_name = "your-class-name" ,
)
pipeline = Pipeline (
sources = [ source ],
embed = openai_embed ,
sink = weaviate_sink
)
pipeline . run ()
results = pipeline . search (
query = "What are the challenges with scaling RAG?" ,
number_of_results = 3
)
for result in results :
print ( result . metadata )
from neumai . DataConnectors . PostgresConnector import PostgresConnector
from neumai . Shared . Selector import Selector
from neumai . Loaders . JSONLoader import JSONLoader
from neumai . Chunkers . RecursiveChunker import RecursiveChunker
from neumai . Sources . SourceConnector import SourceConnector
from neumai . EmbedConnectors import OpenAIEmbed
from neumai . SinkConnectors import WeaviateSink
from neumai . Pipelines import Pipeline
website_connector = PostgresConnector (
connection_string = 'postgres' ,
query = 'Select * from ...'
)
source = SourceConnector (
data_connector = website_connector ,
loader = JSONLoader (
id_key = '<your id key of your jsons>' ,
selector = Selector (
to_embed = [ 'property1_to_embed' , 'property2_to_embed' ],
to_metadata = [ 'property3_to_include_in_metadata_in_vector' ]
)
),
chunker = RecursiveChunker ()
)
openai_embed = OpenAIEmbed (
api_key = "<OPEN AI KEY>" ,
)
weaviate_sink = WeaviateSink (
url = "your-weaviate-url" ,
api_key = "your-api-key" ,
class_name = "your-class-name" ,
)
pipeline = Pipeline (
sources = [ source ],
embed = openai_embed ,
sink = weaviate_sink
)
pipeline . run ()
results = pipeline . search (
query = "..." ,
number_of_results = 3
)
for result in results :
print ( result . metadata )
from neumai . Client . NeumClient import NeumClient
client = NeumClient (
api_key = '<your neum api key, get it from https://dashboard.neum.ai' ,
)
client . create_pipeline ( pipeline = pipeline )
Wenn Sie daran interessiert sind, Neum AI in Ihrer eigenen Cloud bereitzustellen, kontaktieren Sie uns [email protected].
Wir haben eine Beispiel-Backend-Architektur auf GitHub veröffentlicht, die Sie als Ausgangspunkt verwenden können.
Eine aktuelle Liste finden Sie in unseren Dokumenten
Unsere Roadmap entwickelt sich mit Anfragen weiter. Wenn also etwas fehlt, können Sie gerne ein Problem eröffnen oder uns eine Nachricht senden.
Anschlüsse
Suchen
Erweiterbarkeit
Experimental
Weitere Tools für Neum AI finden Sie hier: