Самостоятельно размещаемый стартовый комплект AI — это шаблон Docker Compose с открытым исходным кодом, предназначенный для быстрой инициализации комплексной локальной среды разработки с использованием искусственного интеллекта и минимального кода.
Курируемый https://github.com/n8n-io, он сочетает в себе автономную платформу n8n с тщательно подобранным списком совместимых продуктов и компонентов искусственного интеллекта, позволяющих быстро приступить к созданию автономных рабочих процессов искусственного интеллекта.
Кончик
Прочитать объявление
✅ Самостоятельное размещение n8n — платформа с низким кодом, более 400 интеграций и передовые компоненты искусственного интеллекта.
✅ Ollama — кроссплатформенная платформа LLM для установки и запуска новейших местных программ LLM.
✅ Qdrant — высокопроизводительное векторное хранилище с открытым исходным кодом и комплексным API.
✅ PostgreSQL — рабочая лошадка в мире инженерии данных, безопасно обрабатывает большие объемы данных.
️ AI-агенты для планирования встреч
️ Безопасное суммирование корпоративных PDF-файлов без утечек данных
️ Умные боты Slack для улучшения коммуникаций компании и ИТ-операций.
️ Анализ частных финансовых документов с минимальными затратами
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
Примечание
Если вы раньше не использовали графический процессор Nvidia с Docker, следуйте инструкциям Ollama Docker.
Если вы используете Mac с процессором M1 или новее, к сожалению, вы не сможете подключить свой графический процессор к экземпляру Docker. В этом случае есть два варианта:
Если вы хотите запустить Ollama на своем Mac, посетите домашнюю страницу Ollama для получения инструкций по установке и запустите стартовый комплект следующим образом:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
После того, как вы выполнили приведенную ниже быструю настройку, измените учетные данные Ollama, используя http://host.docker.internal:11434/
в качестве хоста.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
Ядром самостоятельного стартового комплекта AI является файл Docker Compose, в котором предварительно настроены параметры сети и хранилища, что сводит к минимуму необходимость дополнительных установок. После выполнения описанных выше шагов установки просто следуйте инструкциям ниже, чтобы начать работу.
Чтобы открыть n8n в любое время, посетите http://localhost:5678/ в своем браузере.
С вашим экземпляром n8n вы получите доступ к более чем 400 интеграциям и набору базовых и расширенных узлов ИИ, таких как узлы ИИ-агента, классификатора текста и узлов извлечения информации. Чтобы сохранить все локально, просто не забудьте использовать узел Ollama для вашей языковой модели и Qdrant в качестве векторного хранилища.
Примечание
Этот стартовый комплект предназначен для того, чтобы помочь вам приступить к работе с автономными рабочими процессами ИИ. Хотя он не полностью оптимизирован для производственных сред, он сочетает в себе надежные компоненты, которые хорошо работают вместе в экспериментальных проектах. Вы можете настроить его в соответствии с вашими конкретными потребностями
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n полон полезного контента для быстрого начала работы с концепциями и узлами искусственного интеллекта. Если у вас возникнут проблемы, обратитесь в службу поддержки.
Дополнительные идеи рабочего процесса ИИ можно найти в официальной галерее шаблонов AI n8n . В каждом рабочем процессе нажмите кнопку «Использовать рабочий процесс» , чтобы автоматически импортировать рабочий процесс в локальный экземпляр n8n.
Самостоятельно размещаемый стартовый комплект AI создаст общую папку (по умолчанию расположенную в том же каталоге), которая монтируется в контейнер n8n и позволяет n8n получать доступ к файлам на диске. Эта папка внутри контейнера n8n находится по адресу /data/shared
— это путь, который вам нужно будет использовать в узлах, взаимодействующих с локальной файловой системой.
Узлы, которые взаимодействуют с локальной файловой системой
Этот проект лицензируется по лицензии Apache 2.0 — подробности см. в файле ЛИЦЕНЗИИ.
Присоединяйтесь к обсуждению на форуме n8n, где вы сможете: