? ¿Documentación completa? CLI? ¿Casos de uso? ¿Únete a la discordia? YouTube ? Blog
TrustGraph Engine proporciona todas las herramientas, servicios, Graph Stores y VectorDB necesarios para implementar agentes de IA confiables, escalables y precisos. El motor de IA incluye:
Incorpore sus datos confidenciales en lotes y cree núcleos de conocimiento mejorados y reutilizables que transformen a los LLM de propósito general en especialistas en conocimiento. El panel de observabilidad le permite monitorear la latencia de LLM, la administración de recursos y el rendimiento de los tokens en tiempo real. Visualice sus datos mejorados con Neo4j.
Hay dos formas principales de interactuar con TrustGraph:
La TrustGraph CLI
instala los comandos para interactuar con TrustGraph mientras se ejecuta. La Configuration UI
permite la personalización de las implementaciones de TrustGraph antes del lanzamiento.
pip3 install trustgraph-cli==0.13.2
Nota
La versión TrustGraph CLI
debe coincidir con la versión de lanzamiento TrustGraph
deseada.
Si bien TrustGraph se puede personalizar infinitamente, el editor de configuración puede crear una configuración personalizada en segundos con Docker.
¿Iniciar la interfaz de usuario de configuración del desarrollador?
Pasos de lanzamiento:
Model Deployment
seleccionado, siga las instrucciones en la sección Model credentials
para configurar las variables de entorno o rutas requeridas.Model Name
que corresponde a Model Deployment
seleccionado.Model Parameters
deseadosGENERATE
en la sección Deployment configuration
Launch
Una vez que se ha descomprimido deploy.zip
, iniciar TrustGraph es tan simple como navegar hasta el directorio deploy
y ejecutar:
docker compose up -d
Cuando termine, cerrar TrustGraph es tan simple como:
docker compose down -v
Las versiones de TrustGraph están disponibles aquí. Descargue deploy.zip
para obtener la versión de lanzamiento deseada.
Tipo de lanzamiento | Versión de lanzamiento |
---|---|
El último | 0.14.6 |
Estable | 0.13.2 |
TrustGraph está completamente contenedorizado y se inicia con un archivo de configuración YAML
. Al descomprimir el deploy.zip
se agregará el directorio deploy
con los siguientes subdirectorios:
docker-compose
minikube-k8s
gcp-k8s
Cada directorio contiene los archivos de configuración YAML
prediseñados necesarios para iniciar TrustGraph:
Implementación del modelo | Tienda de gráficos | Iniciar archivo |
---|---|---|
API de base de AWS | casandra | tg-bedrock-cassandra.yaml |
API de base de AWS | neo4j | tg-bedrock-neo4j.yaml |
API de AzureAI | casandra | tg-azure-cassandra.yaml |
API de AzureAI | neo4j | tg-azure-neo4j.yaml |
API de AzureOpenAI | casandra | tg-azure-openai-cassandra.yaml |
API de AzureOpenAI | neo4j | tg-azure-openai-neo4j.yaml |
API antrópica | casandra | tg-claude-cassandra.yaml |
API antrópica | neo4j | tg-claude-neo4j.yaml |
API coherente | casandra | tg-cohere-cassandra.yaml |
API coherente | neo4j | tg-cohere-neo4j.yaml |
API de Google AI Studio | casandra | tg-googleaistudio-cassandra.yaml |
API de Google AI Studio | neo4j | tg-googleaistudio-neo4j.yaml |
API de archivo de llama | casandra | tg-llamafile-cassandra.yaml |
API de archivo de llama | neo4j | tg-llamafile-neo4j.yaml |
API de Ollama | casandra | tg-ollama-cassandra.yaml |
API de Ollama | neo4j | tg-ollama-neo4j.yaml |
API abierta de IA | casandra | tg-openai-cassandra.yaml |
API abierta de IA | neo4j | tg-openai-neo4j.yaml |
API de VertexAI | casandra | tg-vertexai-cassandra.yaml |
API de VertexAI | neo4j | tg-vertexai-neo4j.yaml |
Una vez que se haya seleccionado un launch file
de configuración, implemente TrustGraph con:
acoplador :
docker compose -f up -d
Kubernetes :
kubectl apply -f
AWS Bedrock
, AzureAI
, Anthropic
, Cohere
, OpenAI
y VertexAI
Docker
, Podman
o Minikube
TrustGraph está diseñado para ser modular y admitir tantos modelos de lenguaje y entornos como sea posible. Una opción natural para una arquitectura modular es descomponer funciones en un conjunto de módulos conectados a través de una red troncal pub/sub. Apache Pulsar sirve como columna vertebral de pub/sub. Pulsar actúa como intermediario de datos que gestiona las colas de procesamiento de datos conectadas a los módulos de procesamiento.
TrustGraph extrae conocimiento de un corpus de texto (PDF o texto) a un gráfico de conocimiento ultradenso utilizando 3 agentes de conocimiento autónomos. Estos agentes se centran en elementos individuales necesarios para construir el gráfico de conocimiento RDF. Los agentes son:
Las indicaciones del agente se crean a través de plantillas, lo que permite agentes de extracción personalizados para un caso de uso específico. Los agentes de extracción se inician automáticamente con los comandos del cargador.
Archivo PDF:
tg-load-pdf
Archivo de texto o Markdown:
tg-load-text
Una vez que se han creado el gráfico de conocimiento y las incrustaciones o se ha cargado un núcleo de conocimiento, las consultas RAG se lanzan con una sola línea:
tg-query-graph-rag -q "Write a blog post about the 5 key takeaways from SB1047 and how they will impact AI development."
? ¿Guía de implementación completa?
Desarrollando para TrustGraph