自托管 AI Starter Kit是一个开源 Docker Compose 模板,旨在快速初始化全面的本地 AI 和低代码开发环境。
它由 https://github.com/n8n-io 策划,将自托管 n8n 平台与精选的兼容 AI 产品和组件列表相结合,以快速开始构建自托管 AI 工作流程。
提示
阅读公告
✅自托管 n8n - 具有 400 多个集成和高级 AI 组件的低代码平台
✅ Ollama - 跨平台LLM平台,用于安装和运行最新的本地LLM
✅ Qdrant - 具有综合 API 的开源高性能矢量存储
✅ PostgreSQL - 数据工程领域的主力,安全地处理大量数据。
️ 用于安排约会的人工智能代理
️ 安全地汇总公司 PDF,不会泄露数据
️更智能的 Slack 机器人,用于增强公司沟通和 IT 运营
️ 以最低成本进行私人财务文件分析
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
笔记
如果您之前没有将 Nvidia GPU 与 Docker 一起使用过,请按照 Ollama Docker 说明进行操作。
不幸的是,如果您使用的是配备 M1 或更新处理器的 Mac,则无法将 GPU 暴露给 Docker 实例。在这种情况下有两种选择:
如果您想在 Mac 上运行 Ollama,请检查 Ollama 主页以获取安装说明,然后运行入门工具包,如下所示:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
按照下面的快速启动设置进行操作后,使用http://host.docker.internal:11434/
作为主机来更改 Ollama 凭据。
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
自托管 AI 入门套件的核心是 Docker Compose 文件,预先配置了网络和存储设置,最大限度地减少了额外安装的需要。完成上述安装步骤后,只需按照以下步骤即可开始。
要随时打开 n8n,请在浏览器中访问 http://localhost:5678/。
通过您的 n8n 实例,您将可以访问 400 多个集成以及一套基本和高级 AI 节点,例如 AI 代理、文本分类器和信息提取器节点。为了将所有内容保持在本地,请记住使用 Ollama 节点作为您的语言模型,并使用 Qdrant 作为向量存储。
笔记
该入门套件旨在帮助您开始使用自托管 AI 工作流程。虽然它没有针对生产环境进行完全优化,但它结合了强大的组件,可以在概念验证项目中很好地协同工作。您可以对其进行定制以满足您的特定需求
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n 充满了有用的内容,可帮助您快速入门其 AI 概念和节点。如果您遇到问题,请寻求支持。
有关更多 AI 工作流程创意,请访问官方 n8n AI 模板库。从每个工作流程中,选择使用工作流程按钮以自动将工作流程导入到本地 n8n 实例中。
自托管 AI 入门套件将创建一个共享文件夹(默认情况下位于同一目录中),该文件夹安装到 n8n 容器并允许 n8n 访问磁盘上的文件。 n8n 容器中的此文件夹位于/data/shared
—— 这是您需要在与本地文件系统交互的节点中使用的路径。
与本地文件系统交互的节点
该项目根据 Apache License 2.0 获得许可 - 有关详细信息,请参阅许可证文件。
加入 n8n 论坛中的对话,您可以: