? Vollständige Dokumentation ?? CLI? Anwendungsfälle? Dem Discord beitreten? YouTube? Blog
Die TrustGraph Engine bietet alle Tools, Dienste, Graph Stores und VectorDBs, die für die Bereitstellung zuverlässiger, skalierbarer und präziser KI-Agenten erforderlich sind. Die KI-Engine umfasst:
Erfassen Sie Ihre sensiblen Daten stapelweise und erstellen Sie wiederverwendbare und erweiterte Wissenskerne, die allgemeine LLMs in Wissensspezialisten verwandeln. Mit dem Observability-Dashboard können Sie die LLM-Latenz, das Ressourcenmanagement und den Token-Durchsatz in Echtzeit überwachen. Visualisieren Sie Ihre erweiterten Daten mit Neo4j.
Es gibt zwei Hauptmöglichkeiten für die Interaktion mit TrustGraph:
Die TrustGraph CLI
installiert die Befehle für die Interaktion mit TrustGraph während der Ausführung. Die Configuration UI
ermöglicht die Anpassung von TrustGraph-Bereitstellungen vor dem Start.
pip3 install trustgraph-cli==0.13.2
Notiz
Die TrustGraph CLI
Version muss mit der gewünschten TrustGraph
Release-Version übereinstimmen.
Während TrustGraph endlos anpassbar ist, kann der Konfigurationseditor mit Docker in Sekundenschnelle eine benutzerdefinierte Konfiguration erstellen.
Die Developer Config-Benutzeroberfläche starten?
Schritte zum Starten:
Model Deployment
die Anweisungen im Abschnitt Model credentials
, um alle erforderlichen Umgebungsvariablen oder Pfade zu konfigurierenModel Name
ein, der Ihrer ausgewählten Model Deployment
entsprichtModel Parameters
einDeployment configuration
auf GENERATE
Launch
Sobald deploy.zip
entpackt wurde, ist das Starten von TrustGraph so einfach wie das Navigieren zum deploy
und das Ausführen von:
docker compose up -d
Wenn Sie fertig sind, können Sie TrustGraph ganz einfach herunterfahren:
docker compose down -v
TrustGraph-Versionen sind hier verfügbar. Laden Sie deploy.zip
für die gewünschte Release-Version herunter.
Release-Typ | Release-Version |
---|---|
Letzte | 0,14,6 |
Stabil | 0,13,2 |
TrustGraph ist vollständig containerisiert und wird mit einer YAML
Konfigurationsdatei gestartet. Durch das Entpacken der deploy.zip
wird das Verzeichnis deploy
mit den folgenden Unterverzeichnissen hinzugefügt:
docker-compose
minikube-k8s
gcp-k8s
Jedes Verzeichnis enthält die vorgefertigten YAML
-Konfigurationsdateien, die zum Starten von TrustGraph erforderlich sind:
Modellbereitstellung | Graph Store | Datei starten |
---|---|---|
AWS Bedrock-API | Kassandra | tg-bedrock-cassandra.yaml |
AWS Bedrock-API | Neo4j | tg-bedrock-neo4j.yaml |
AzureAI-API | Kassandra | tg-azure-cassandra.yaml |
AzureAI-API | Neo4j | tg-azure-neo4j.yaml |
AzureOpenAI-API | Kassandra | tg-azure-openai-cassandra.yaml |
AzureOpenAI-API | Neo4j | tg-azure-openai-neo4j.yaml |
Anthropische API | Kassandra | tg-claude-cassandra.yaml |
Anthropische API | Neo4j | tg-claude-neo4j.yaml |
Cohere-API | Kassandra | tg-cohere-cassandra.yaml |
Cohere-API | Neo4j | tg-cohere-neo4j.yaml |
Google AI Studio-API | Kassandra | tg-googleaistudio-cassandra.yaml |
Google AI Studio-API | Neo4j | tg-googleaistudio-neo4j.yaml |
Lamafile-API | Kassandra | tg-llamafile-cassandra.yaml |
Lamafile-API | Neo4j | tg-llamafile-neo4j.yaml |
Ollama-API | Kassandra | tg-ollama-cassandra.yaml |
Ollama-API | Neo4j | tg-ollama-neo4j.yaml |
OpenAI-API | Kassandra | tg-openai-cassandra.yaml |
OpenAI-API | Neo4j | tg-openai-neo4j.yaml |
VertexAI-API | Kassandra | tg-vertexai-cassandra.yaml |
VertexAI-API | Neo4j | tg-vertexai-neo4j.yaml |
Sobald eine launch file
ausgewählt wurde, stellen Sie TrustGraph bereit mit:
Docker :
docker compose -f up -d
Kubernetes :
kubectl apply -f
AWS Bedrock
, AzureAI
, Anthropic
, Cohere
, OpenAI
und VertexAI
Docker
, Podman
oder Minikube
TrustGraph ist modular aufgebaut, um so viele Sprachmodelle und Umgebungen wie möglich zu unterstützen. Eine natürliche Ergänzung für eine modulare Architektur besteht darin, Funktionen in eine Reihe von Modulen zu zerlegen, die über ein Pub/Sub-Backbone verbunden sind. Apache Pulsar dient als dieses Pub/Sub-Backbone. Pulsar fungiert als Datenbroker und verwaltet die Datenverarbeitungswarteschlangen, die mit den Verarbeitungsmodulen verbunden sind.
TrustGraph extrahiert mithilfe von drei autonomen Wissensagenten Wissen aus einem Textkorpus (PDF oder Text) in einen extrem dichten Wissensgraphen. Diese Agenten konzentrieren sich auf einzelne Elemente, die zum Aufbau des RDF-Wissensgraphen erforderlich sind. Die Agenten sind:
Die Agent-Eingabeaufforderungen werden mithilfe von Vorlagen erstellt und ermöglichen so angepasste Extraktionsagenten für einen bestimmten Anwendungsfall. Die Extraktionsagenten werden automatisch mit den Loader-Befehlen gestartet.
PDF-Datei:
tg-load-pdf
Text- oder Markdown-Datei:
tg-load-text
Sobald der Wissensgraph und die Einbettungen erstellt oder ein Wissenskern geladen wurden, werden RAG-Abfragen mit einer einzigen Zeile gestartet:
tg-query-graph-rag -q "Write a blog post about the 5 key takeaways from SB1047 and how they will impact AI development."
? Vollständiger Bereitstellungsleitfaden?
Entwicklung für TrustGraph