AI Starter Kit auto-hébergé est un modèle Docker Compose open source conçu pour initialiser rapidement un environnement complet d'IA locale et de développement low-code.
Organisé par https://github.com/n8n-io, il combine la plate-forme n8n auto-hébergée avec une liste organisée de produits et composants d'IA compatibles pour commencer rapidement à créer des flux de travail d'IA auto-hébergés.
Conseil
Lire l'annonce
✅ n8n auto-hébergé - Plateforme low-code avec plus de 400 intégrations et composants d'IA avancés
✅ Ollama - Plateforme LLM multiplateforme pour installer et exécuter les derniers LLM locaux
✅ Qdrant - Magasin de vecteurs open source et hautes performances avec une API complète
✅ PostgreSQL - Cheval de bataille du monde de l'ingénierie des données, gère de grandes quantités de données en toute sécurité.
️ Agents IA pour la planification des rendez-vous
️ Résumez les PDF de l'entreprise en toute sécurité sans fuite de données
️ Des Slack Bots plus intelligents pour des communications d'entreprise et des opérations informatiques améliorées
️ Analyse de documents financiers privés à moindre coût
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
Note
Si vous n'avez jamais utilisé votre GPU Nvidia avec Docker auparavant, veuillez suivre les instructions d'Ollama Docker.
Si vous utilisez un Mac avec un processeur M1 ou plus récent, vous ne pouvez malheureusement pas exposer votre GPU à l'instance Docker. Il y a deux options dans ce cas :
Si vous souhaitez exécuter Ollama sur votre Mac, consultez la page d'accueil d'Ollama pour les instructions d'installation et exécutez le kit de démarrage comme suit :
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
Après avoir suivi la configuration de démarrage rapide ci-dessous, modifiez les informations d'identification Ollama en utilisant http://host.docker.internal:11434/
comme hôte.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
Le cœur du kit de démarrage AI auto-hébergé est un fichier Docker Compose, préconfiguré avec des paramètres de réseau et de stockage, minimisant ainsi le besoin d'installations supplémentaires. Après avoir terminé les étapes d'installation ci-dessus, suivez simplement les étapes ci-dessous pour commencer.
Pour ouvrir n8n à tout moment, visitez http://localhost:5678/ dans votre navigateur.
Avec votre instance n8n, vous aurez accès à plus de 400 intégrations et à une suite de nœuds IA de base et avancés tels que les nœuds AI Agent, Text classifier et Information Extractor. Pour que tout reste local, n'oubliez pas d'utiliser le nœud Ollama pour votre modèle de langage et Qdrant comme magasin de vecteurs.
Note
Ce kit de démarrage est conçu pour vous aider à démarrer avec les workflows d'IA auto-hébergés. Bien qu'il ne soit pas entièrement optimisé pour les environnements de production, il combine des composants robustes qui fonctionnent bien ensemble pour les projets de validation de principe. Vous pouvez le personnaliser pour répondre à vos besoins spécifiques
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n regorge de contenu utile pour démarrer rapidement avec ses concepts et nœuds d’IA. Si vous rencontrez un problème, accédez au support.
Pour plus d'idées de flux de travail IA, visitez la galerie officielle de modèles n8n AI . Dans chaque workflow, sélectionnez le bouton Utiliser le workflow pour importer automatiquement le workflow dans votre instance n8n locale.
Le kit de démarrage AI auto-hébergé créera un dossier partagé (par défaut, situé dans le même répertoire) qui est monté sur le conteneur n8n et permettra à n8n d'accéder aux fichiers sur le disque. Ce dossier dans le conteneur n8n se trouve dans /data/shared
- c'est le chemin que vous devrez utiliser dans les nœuds qui interagissent avec le système de fichiers local.
Nœuds qui interagissent avec le système de fichiers local
Ce projet est sous licence Apache License 2.0 - voir le fichier LICENSE pour plus de détails.
Rejoignez la conversation sur le forum n8n, où vous pouvez :