Das selbst gehostete AI Starter Kit ist eine Open-Source-Docker-Compose-Vorlage, die für die schnelle Initialisierung einer umfassenden lokalen KI- und Low-Code-Entwicklungsumgebung entwickelt wurde.
Kuratiert von https://github.com/n8n-io, kombiniert es die selbst gehostete n8n-Plattform mit einer kuratierten Liste kompatibler KI-Produkte und -Komponenten, um schnell mit der Erstellung selbst gehosteter KI-Workflows zu beginnen.
Tipp
Lesen Sie die Ankündigung
✅ Selbstgehostetes n8n – Low-Code-Plattform mit über 400 Integrationen und fortschrittlichen KI-Komponenten
✅ Ollama – Plattformübergreifende LLM-Plattform zur Installation und Ausführung der neuesten lokalen LLMs
✅ Qdrant – Open-Source-Hochleistungs-Vektorspeicher mit umfassender API
✅ PostgreSQL – Arbeitspferd der Data Engineering-Welt, verarbeitet große Datenmengen sicher.
️ KI-Agenten zur Terminplanung
️ Fassen Sie Unternehmens-PDFs sicher und ohne Datenlecks zusammen
️ Intelligentere Slack-Bots für verbesserte Unternehmenskommunikation und IT-Abläufe
️ Private Finanzdokumentanalyse zu minimalen Kosten
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
Notiz
Wenn Sie Ihre Nvidia-GPU noch nie mit Docker verwendet haben, befolgen Sie bitte die Ollama Docker-Anweisungen.
Wenn Sie einen Mac mit einem M1-Prozessor oder einem neueren Prozessor verwenden, können Sie Ihre GPU leider nicht der Docker-Instanz zugänglich machen. In diesem Fall gibt es zwei Möglichkeiten:
Wenn Sie Ollama auf Ihrem Mac ausführen möchten, schauen Sie auf der Ollama-Homepage nach Installationsanweisungen und führen Sie das Starterkit wie folgt aus:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
Nachdem Sie die Schnellstart-Einrichtung unten befolgt haben, ändern Sie die Ollama-Anmeldeinformationen, indem Sie http://host.docker.internal:11434/
als Host verwenden.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
Der Kern des Self-hosted AI Starter Kit ist eine Docker Compose-Datei, die mit Netzwerk- und Speichereinstellungen vorkonfiguriert ist, wodurch der Bedarf an zusätzlichen Installationen minimiert wird. Nachdem Sie die oben genannten Installationsschritte abgeschlossen haben, befolgen Sie einfach die folgenden Schritte, um loszulegen.
Um n8n jederzeit zu öffnen, besuchen Sie http://localhost:5678/ in Ihrem Browser.
Mit Ihrer n8n-Instanz haben Sie Zugriff auf über 400 Integrationen und eine Reihe grundlegender und erweiterter KI-Knoten wie KI-Agent, Textklassifizierer und Informationsextraktor-Knoten. Um alles lokal zu halten, denken Sie daran, den Ollama-Knoten für Ihr Sprachmodell und Qdrant als Vektorspeicher zu verwenden.
Notiz
Dieses Starterkit soll Ihnen den Einstieg in selbstgehostete KI-Workflows erleichtern. Obwohl es nicht vollständig für Produktionsumgebungen optimiert ist, kombiniert es robuste Komponenten, die für Proof-of-Concept-Projekte gut zusammenarbeiten. Sie können es an Ihre spezifischen Bedürfnisse anpassen
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n ist voll von nützlichen Inhalten für den schnellen Einstieg in seine KI-Konzepte und -Knoten. Wenn Sie auf ein Problem stoßen, wenden Sie sich an den Support.
Weitere KI-Workflow-Ideen finden Sie in der offiziellen n8n AI-Vorlagengalerie . Wählen Sie in jedem Workflow die Schaltfläche „Workflow verwenden“ aus, um den Workflow automatisch in Ihre lokale n8n-Instanz zu importieren.
Das selbst gehostete AI-Starterkit erstellt einen freigegebenen Ordner (standardmäßig im selben Verzeichnis), der im n8n-Container bereitgestellt wird und n8n den Zugriff auf Dateien auf der Festplatte ermöglicht. Dieser Ordner im n8n-Container befindet sich unter /data/shared
– dies ist der Pfad, den Sie in Knoten verwenden müssen, die mit dem lokalen Dateisystem interagieren.
Knoten, die mit dem lokalen Dateisystem interagieren
Dieses Projekt ist unter der Apache-Lizenz 2.0 lizenziert – Einzelheiten finden Sie in der LIZENZ-Datei.
Beteiligen Sie sich an der Diskussion im n8n-Forum, wo Sie: