? Documentação completa ?? CLI? Casos de uso? Junte-se ao Discord? YouTube ? Blogue
O TrustGraph Engine fornece todas as ferramentas, serviços, Graph Stores e VectorDBs necessários para implantar agentes de IA confiáveis, escaláveis e precisos. O mecanismo de IA inclui:
Ingira seus dados confidenciais em lotes e crie núcleos de conhecimento reutilizáveis e aprimorados que transformam LLMs de uso geral em especialistas em conhecimento. O painel de observabilidade permite monitorar a latência do LLM, o gerenciamento de recursos e a taxa de transferência de token em tempo real. Visualize seus dados aprimorados com Neo4j.
Existem duas maneiras principais de interagir com o TrustGraph:
A TrustGraph CLI
instala os comandos para interagir com o TrustGraph durante a execução. A Configuration UI
permite a personalização de implantações do TrustGraph antes do lançamento.
pip3 install trustgraph-cli==0.13.2
Observação
A versão TrustGraph CLI
deve corresponder à versão de lançamento desejada TrustGraph
.
Embora o TrustGraph seja infinitamente personalizável, o editor de configuração pode criar uma configuração personalizada em segundos com o Docker.
Iniciar a IU de configuração do desenvolvedor?
Etapas de lançamento:
Model Deployment
selecionada, siga as instruções na seção Model credentials
para configurar quaisquer variáveis de ambiente ou caminhos necessáriosModel Name
que corresponde à Model Deployment
selecionadaModel Parameters
desejadosGENERATE
na seção Deployment configuration
Launch
Depois que deploy.zip
for descompactado, iniciar o TrustGraph é tão simples quanto navegar até o diretório deploy
e executar:
docker compose up -d
Quando terminar, desligar o TrustGraph é tão simples quanto:
docker compose down -v
As versões do TrustGraph estão disponíveis aqui. Baixe deploy.zip
para a versão de lançamento desejada.
Tipo de versão | Versão de lançamento |
---|---|
Mais recente | 0.14.6 |
Estável | 0.13.2 |
TrustGraph é totalmente conteinerizado e iniciado com um arquivo de configuração YAML
. Descompactar o deploy.zip
adicionará o diretório deploy
com os seguintes subdiretórios:
docker-compose
minikube-k8s
gcp-k8s
Cada diretório contém os arquivos de configuração YAML
pré-construídos necessários para iniciar o TrustGraph:
Implantação de modelo | Loja de gráficos | Iniciar arquivo |
---|---|---|
API AWS Bedrock | Cassandra | tg-bedrock-cassandra.yaml |
API AWS Bedrock | Neo4j | tg-bedrock-neo4j.yaml |
API AzureAI | Cassandra | tg-azure-cassandra.yaml |
API AzureAI | Neo4j | tg-azure-neo4j.yaml |
API AzureOpenAI | Cassandra | tg-azure-openai-cassandra.yaml |
API AzureOpenAI | Neo4j | tg-azure-openai-neo4j.yaml |
API antrópica | Cassandra | tg-claude-cassandra.yaml |
API antrópica | Neo4j | tg-claude-neo4j.yaml |
API coerente | Cassandra | tg-cohere-cassandra.yaml |
API coerente | Neo4j | tg-cohere-neo4j.yaml |
API do Google AI Studio | Cassandra | tg-googleaistudio-cassandra.yaml |
API do Google AI Studio | Neo4j | tg-googleaistudio-neo4j.yaml |
API Llamafile | Cassandra | tg-llamafile-cassandra.yaml |
API Llamafile | Neo4j | tg-llamafile-neo4j.yaml |
API Ollama | Cassandra | tg-ollama-cassandra.yaml |
API Ollama | Neo4j | tg-ollama-neo4j.yaml |
API OpenAI | Cassandra | tg-openai-cassandra.yaml |
API OpenAI | Neo4j | tg-openai-neo4j.yaml |
API VertexAI | Cassandra | tg-vertexai-cassandra.yaml |
API VertexAI | Neo4j | tg-vertexai-neo4j.yaml |
Depois que um launch file
de configuração for selecionado, implante o TrustGraph com:
Docker :
docker compose -f up -d
Kubernetes :
kubectl apply -f
AWS Bedrock
, AzureAI
, Anthropic
, Cohere
, OpenAI
e VertexAI
Docker
, Podman
ou Minikube
TrustGraph foi projetado para ser modular para suportar tantos modelos de linguagem e ambientes quanto possível. Um ajuste natural para uma arquitetura modular é decompor funções em um conjunto de módulos conectados através de um backbone pub/sub. Apache Pulsar serve como backbone de pub/sub. Pulsar atua como corretor de dados gerenciando filas de processamento de dados conectadas a módulos de processamento.
TrustGraph extrai conhecimento de um corpus de texto (PDF ou texto) para um gráfico de conhecimento ultradenso usando 3 agentes de conhecimento autônomos. Esses agentes concentram-se em elementos individuais necessários para construir o gráfico de conhecimento RDF. Os agentes são:
Os prompts do agente são criados por meio de modelos, permitindo agentes de extração customizados para um caso de uso específico. Os agentes de extração são iniciados automaticamente com os comandos do carregador.
Arquivo PDF:
tg-load-pdf
Arquivo de texto ou Markdown:
tg-load-text
Depois que o gráfico de conhecimento e os embeddings forem construídos ou um núcleo de conhecimento tiver sido carregado, as consultas RAG são iniciadas com uma única linha:
tg-query-graph-rag -q "Write a blog post about the 5 key takeaways from SB1047 and how they will impact AI development."
? Guia completo de implantação?
Desenvolvendo para TrustGraph