?完整文档???命令行界面?使用案例?加入不和谐? YouTube ?博客
TrustGraph 引擎提供部署可靠、可扩展且准确的 AI 代理所需的所有工具、服务、图形存储和 VectorDB。人工智能引擎包括:
批量提取敏感数据并构建可重用和增强的知识核心,将通用法学硕士转变为知识专家。可观察性仪表板允许您实时监控 LLM 延迟、资源管理和令牌吞吐量。使用 Neo4j 可视化增强的数据。
与 TrustGraph 交互的主要方式有两种:
TrustGraph CLI
在运行时安装用于与 TrustGraph 交互的命令。 Configuration UI
允许在启动之前自定义 TrustGraph 部署。
pip3 install trustgraph-cli==0.13.2
笔记
TrustGraph CLI
版本必须与所需的TrustGraph
发行版本匹配。
虽然 TrustGraph 可以无限定制,但配置编辑器可以使用 Docker 在几秒钟内构建自定义配置。
启动开发人员配置 UI ?
启动步骤:
Model Deployment
,请按照Model credentials
部分中的说明配置任何所需的环境变量或路径Model Deployment
相对应的Model Name
字段中填写所需的 LLM 名称Model Parameters
Deployment configuration
部分下的GENERATE
Launch
下的说明进行操作解压缩deploy.zip
后,启动TrustGraph就像导航到deploy
目录并运行一样简单:
docker compose up -d
完成后,关闭 TrustGraph 非常简单:
docker compose down -v
TrustGraph 版本可在此处获取。下载所需发行版本的deploy.zip
。
释放类型 | 发布版本 |
---|---|
最新的 | 0.14.6 |
稳定的 | 0.13.2 |
TrustGraph 是完全容器化的,并使用YAML
配置文件启动。解压deploy.zip
将添加带有以下子目录的deploy
目录:
docker-compose
minikube-k8s
gcp-k8s
每个目录都包含启动 TrustGraph 所需的预构建YAML
配置文件:
模型部署 | 图商店 | 启动文件 |
---|---|---|
AWS 基岩 API | 卡桑德拉 | tg-bedrock-cassandra.yaml |
AWS 基岩 API | 新4j | tg-bedrock-neo4j.yaml |
Azure人工智能API | 卡桑德拉 | tg-azure-cassandra.yaml |
Azure人工智能API | 新4j | tg-azure-neo4j.yaml |
AzureOpenAI API | 卡桑德拉 | tg-azure-openai-cassandra.yaml |
AzureOpenAI API | 新4j | tg-azure-openai-neo4j.yaml |
人择API | 卡桑德拉 | tg-claude-cassandra.yaml |
人择API | 新4j | tg-claude-neo4j.yaml |
一致API | 卡桑德拉 | tg-cohere-cassandra.yaml |
一致API | 新4j | tg-cohere-neo4j.yaml |
谷歌人工智能工作室API | 卡桑德拉 | tg-googleaistudio-cassandra.yaml |
谷歌人工智能工作室API | 新4j | tg-googleaistudio-neo4j.yaml |
拉马文件 API | 卡桑德拉 | tg-llamafile-cassandra.yaml |
拉马文件 API | 新4j | tg-llamafile-neo4j.yaml |
奥拉马 API | 卡桑德拉 | tg-ollama-cassandra.yaml |
奥拉马 API | 新4j | tg-ollama-neo4j.yaml |
开放人工智能API | 卡桑德拉 | tg-openai-cassandra.yaml |
开放人工智能API | 新4j | tg-openai-neo4j.yaml |
顶点人工智能API | 卡桑德拉 | tg-vertexai-cassandra.yaml |
顶点人工智能API | 新4j | tg-vertexai-neo4j.yaml |
选择配置launch file
后,使用以下命令部署 TrustGraph:
码头工人:
docker compose -f up -d
库伯内特斯:
kubectl apply -f
AWS Bedrock
、 AzureAI
、 Anthropic
、 Cohere
、 OpenAI
和VertexAI
Docker
、 Podman
或Minikube
进行容器编排TrustGraph 被设计为模块化,以支持尽可能多的语言模型和环境。模块化架构的自然选择是将功能分解为一组通过 pub/sub 主干连接的模块。 Apache Pulsar 充当这个 pub/sub 骨干网。 Pulsar 充当数据代理,管理连接到处理模块的数据处理队列。
TrustGraph 使用 3 个自主知识代理将文本语料库(PDF 或文本)中的知识提取到超密集知识图谱中。这些代理专注于构建 RDF 知识图所需的各个元素。代理人是:
代理提示是通过模板构建的,支持针对特定用例定制提取代理。提取代理会通过加载器命令自动启动。
PDF文件:
tg-load-pdf
文本或 Markdown 文件:
tg-load-text
一旦构建了知识图和嵌入或加载了知识核心,就可以使用一行启动 RAG 查询:
tg-query-graph-rag -q "Write a blog post about the 5 key takeaways from SB1047 and how they will impact AI development."
?完整的部署指南?
为 TrustGraph 进行开发