El kit de inicio de IA autohospedado es una plantilla de Docker Compose de código abierto diseñada para inicializar rápidamente un entorno de desarrollo de código bajo e IA local integral.
Seleccionado por https://github.com/n8n-io, combina la plataforma n8n autohospedada con una lista seleccionada de productos y componentes de IA compatibles para comenzar rápidamente a crear flujos de trabajo de IA autohospedados.
Consejo
Leer el anuncio
✅ N8n autohospedado : plataforma de código bajo con más de 400 integraciones y componentes avanzados de IA
✅ Ollama : plataforma LLM multiplataforma para instalar y ejecutar los últimos LLM locales
✅ Qdrant : tienda de vectores de código abierto y alto rendimiento con una API completa
✅ PostgreSQL : caballo de batalla del mundo de la ingeniería de datos, maneja grandes cantidades de datos de forma segura.
️ Agentes AI para programar citas
️ Resuma los archivos PDF de la empresa de forma segura y sin fugas de datos
️ Slack Bots más inteligentes para mejorar las comunicaciones de la empresa y las operaciones de TI
️ Análisis de documentos financieros privados a un costo mínimo
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
Nota
Si no ha utilizado su GPU Nvidia con Docker antes, siga las instrucciones de Ollama Docker.
Si está utilizando una Mac con un procesador M1 o más nuevo, desafortunadamente no puede exponer su GPU a la instancia de Docker. Hay dos opciones en este caso:
Si desea ejecutar Ollama en su Mac, consulte la página de inicio de Ollama para obtener instrucciones de instalación y ejecute el kit de inicio de la siguiente manera:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
Después de seguir la configuración de inicio rápido a continuación, cambie las credenciales de Ollama utilizando http://host.docker.internal:11434/
como host.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
El núcleo del kit de inicio de IA autohospedado es un archivo Docker Compose, preconfigurado con configuraciones de red y almacenamiento, lo que minimiza la necesidad de instalaciones adicionales. Después de completar los pasos de instalación anteriores, simplemente siga los pasos a continuación para comenzar.
Para abrir n8n en cualquier momento, visite http://localhost:5678/ en su navegador.
Con su instancia n8n, tendrá acceso a más de 400 integraciones y un conjunto de nodos de IA básicos y avanzados, como nodos de Agente de IA, Clasificador de texto y Extractor de información. Para mantener todo local, recuerde usar el nodo Ollama para su modelo de lenguaje y Qdrant como su almacén de vectores.
Nota
Este kit de inicio está diseñado para ayudarlo a comenzar con flujos de trabajo de IA autohospedados. Si bien no está completamente optimizado para entornos de producción, combina componentes robustos que funcionan bien juntos para proyectos de prueba de concepto. Puede personalizarlo para satisfacer sus necesidades específicas.
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n está lleno de contenido útil para comenzar rápidamente con sus conceptos y nodos de IA. Si tiene algún problema, vaya a soporte.
Para obtener más ideas de flujos de trabajo de IA, visite la galería de plantillas oficiales de IA de n8n . Desde cada flujo de trabajo, seleccione el botón Usar flujo de trabajo para importar automáticamente el flujo de trabajo a su instancia n8n local.
El kit de inicio de IA autohospedado creará una carpeta compartida (de forma predeterminada, ubicada en el mismo directorio) que se monta en el contenedor n8n y permite que n8n acceda a los archivos en el disco. Esta carpeta dentro del contenedor n8n se encuentra en /data/shared
; esta es la ruta que necesitará usar en los nodos que interactúan con el sistema de archivos local.
Nodos que interactúan con el sistema de archivos local.
Este proyecto tiene la licencia Apache 2.0; consulte el archivo de LICENCIA para obtener más detalles.
Únase a la conversación en el Foro n8n, donde podrá: