? Documentation complète ?? CLI ? Cas d'utilisation ? Rejoindre le Discord ? YouTube ? Blogue
Le moteur TrustGraph fournit tous les outils, services, magasins de graphiques et VectorDB nécessaires pour déployer des agents d'IA fiables, évolutifs et précis. Le moteur IA comprend :
Ingérez vos données sensibles par lots et créez des noyaux de connaissances réutilisables et améliorés qui transforment les LLM à usage général en spécialistes des connaissances. Le tableau de bord d'observabilité vous permet de surveiller la latence LLM, la gestion des ressources et le débit des jetons en temps réel. Visualisez vos données améliorées avec Neo4j.
Il existe deux manières principales d'interagir avec TrustGraph :
La TrustGraph CLI
installe les commandes permettant d'interagir avec TrustGraph pendant l'exécution. L' Configuration UI
permet de personnaliser les déploiements TrustGraph avant le lancement.
pip3 install trustgraph-cli==0.13.2
Note
La version TrustGraph CLI
doit correspondre à la version de TrustGraph
souhaitée.
Bien que TrustGraph soit personnalisable à l'infini, l'éditeur de configuration peut créer une configuration personnalisée en quelques secondes avec Docker.
Lancer l'interface utilisateur de Developer Config ?
Étapes de lancement :
Model Deployment
sélectionné, suivez les instructions dans la section Model credentials
pour configurer les variables ou chemins d'environnement requis.Model Name
qui correspond au Model Deployment
sélectionné.Model Parameters
souhaitésGENERATE
sous la section Deployment configuration
Launch
Une fois deploy.zip
décompressé, lancer TrustGraph est aussi simple que de naviguer jusqu'au répertoire deploy
et d'exécuter :
docker compose up -d
Une fois terminé, arrêter TrustGraph est aussi simple que :
docker compose down -v
Les versions de TrustGraph sont disponibles ici. Téléchargez deploy.zip
pour la version souhaitée.
Type de version | Version de sortie |
---|---|
Dernier | 0.14.6 |
Écurie | 0.13.2 |
TrustGraph est entièrement conteneurisé et est lancé avec un fichier de configuration YAML
. La décompression du deploy.zip
ajoutera le répertoire deploy
avec les sous-répertoires suivants :
docker-compose
minikube-k8s
gcp-k8s
Chaque répertoire contient les fichiers de configuration YAML
prédéfinis nécessaires au lancement de TrustGraph :
Déploiement du modèle | Magasin de graphiques | Lancer le fichier |
---|---|---|
API AWS Bedrock | Cassandre | tg-bedrock-cassandra.yaml |
API AWS Bedrock | Néo4j | tg-bedrock-neo4j.yaml |
API AzureAI | Cassandre | tg-azure-cassandra.yaml |
API AzureAI | Néo4j | tg-azure-neo4j.yaml |
API AzureOpenAI | Cassandre | tg-azure-openai-cassandra.yaml |
API AzureOpenAI | Néo4j | tg-azure-openai-neo4j.yaml |
API anthropique | Cassandre | tg-claude-cassandra.yaml |
API anthropique | Néo4j | tg-claude-neo4j.yaml |
Cohérer l'API | Cassandre | tg-cohere-cassandra.yaml |
Cohérer l'API | Néo4j | tg-cohere-neo4j.yaml |
API Google AI Studio | Cassandre | tg-googleaistudio-cassandra.yaml |
API Google AI Studio | Néo4j | tg-googleaistudio-neo4j.yaml |
API Llamafile | Cassandre | tg-llamafile-cassandra.yaml |
API Llamafile | Néo4j | tg-llamafile-neo4j.yaml |
API Ollama | Cassandre | tg-ollama-cassandra.yaml |
API Ollama | Néo4j | tg-ollama-neo4j.yaml |
API OpenAI | Cassandre | tg-openai-cassandra.yaml |
API OpenAI | Néo4j | tg-openai-neo4j.yaml |
API VertexAI | Cassandre | tg-vertexai-cassandra.yaml |
API VertexAI | Néo4j | tg-vertexai-neo4j.yaml |
Une fois un launch file
de configuration sélectionné, déployez TrustGraph avec :
Docker :
docker compose -f up -d
Kubernetes :
kubectl apply -f
AWS Bedrock
, AzureAI
, Anthropic
, Cohere
, OpenAI
et VertexAI
Docker
, Podman
ou Minikube
TrustGraph est conçu pour être modulaire afin de prendre en charge autant de modèles de langage et d'environnements que possible. Une solution naturelle pour une architecture modulaire consiste à décomposer les fonctions en un ensemble de modules connectés via un backbone pub/sub. Apache Pulsar sert de colonne vertébrale pub/sub. Pulsar agit en tant que courtier de données gérant les files d'attente de traitement des données connectées aux modules de traitement.
TrustGraph extrait les connaissances d'un corpus de texte (PDF ou texte) vers un graphe de connaissances ultra-dense à l'aide de 3 agents de connaissances autonomes. Ces agents se concentrent sur les éléments individuels nécessaires à la construction du graphe de connaissances RDF. Les agents sont :
Les invites des agents sont créées via des modèles, permettant des agents d'extraction personnalisés pour un cas d'utilisation spécifique. Les agents d'extraction sont lancés automatiquement avec les commandes du chargeur.
Fichier PDF :
tg-load-pdf
Fichier texte ou Markdown :
tg-load-text
Une fois le graphe de connaissances et les intégrations construits ou un noyau de connaissances chargé, les requêtes RAG sont lancées avec une seule ligne :
tg-query-graph-rag -q "Write a blog post about the 5 key takeaways from SB1047 and how they will impact AI development."
? Guide de déploiement complet ?
Développer pour TrustGraph