セルフホスト型 AI スターター キットは、包括的なローカル AI およびローコード開発環境を迅速に初期化するように設計されたオープンソースの Docker Compose テンプレートです。
https://github.com/n8n-io によってキュレーションされており、セルフホスト型の n8n プラットフォームと互換性のある AI 製品およびコンポーネントの厳選されたリストを組み合わせて、セルフホスト型 AI ワークフローの構築をすぐに開始できます。
ヒント
お知らせを読む
✅セルフホスト型 n8n - 400 を超える統合と高度な AI コンポーネントを備えたローコード プラットフォーム
✅ Ollama - 最新のローカル LLM をインストールして実行するためのクロスプラットフォーム LLM プラットフォーム
✅ Qdrant - 包括的な API を備えたオープンソースの高性能ベクター ストア
✅ PostgreSQL - データ エンジニアリングの世界の主力であり、大量のデータを安全に処理します。
️ 予約をスケジュールするためのAI エージェント
️ データ漏洩することなく会社の PDF を安全に要約します
️ 社内コミュニケーションと IT 運用を強化するためのよりスマートな Slack ボット
️ 最小限のコストで民間の財務文書を分析
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
注記
これまでに Docker で Nvidia GPU を使用したことがない場合は、Ollama Docker の手順に従ってください。
M1 以降のプロセッサを搭載した Mac を使用している場合、残念ながら GPU を Docker インスタンスに公開することはできません。この場合、2 つのオプションがあります。
Mac で Ollama を実行する場合は、Ollama ホームページでインストール手順を確認し、次のようにスターター キットを実行します。
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
以下のクイック スタート セットアップに従った後、ホストとしてhttp://host.docker.internal:11434/
使用して Ollama 資格情報を変更します。
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
セルフホスト型 AI スターター キットの中核となるのは、ネットワークとストレージの設定が事前に構成された Docker Compose ファイルであり、追加インストールの必要性を最小限に抑えます。上記のインストール手順を完了したら、以下の手順に従って開始してください。
n8n をいつでも開くには、ブラウザで http://localhost:5678/ にアクセスしてください。
n8n インスタンスを使用すると、400 を超える統合と、AI エージェント、テキスト分類子、情報抽出ノードなどの基本および高度な AI ノードのスイートにアクセスできます。すべてをローカルに保つには、言語モデルとして Ollama ノードを使用し、ベクター ストアとして Qdrant を使用することを忘れないでください。
注記
このスターター キットは、セルフホスト型 AI ワークフローを開始できるように設計されています。運用環境向けに完全には最適化されていませんが、概念実証プロジェクトで適切に連携する堅牢なコンポーネントが組み合わされています。特定のニーズに合わせてカスタマイズできます
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n には、AI の概念とノードをすぐに使い始めるのに役立つコンテンツが満載です。問題が発生した場合は、サポートに問い合わせてください。
AI ワークフローのアイデアについては、公式の n8n AI テンプレート ギャラリーをご覧ください。各ワークフローから[ワークフローを使用]ボタンを選択して、ワークフローをローカルの n8n インスタンスに自動的にインポートします。
セルフホスト型 AI スターター キットは、n8n コンテナーにマウントされる共有フォルダー (デフォルトでは同じディレクトリにあります) を作成し、n8n がディスク上のファイルにアクセスできるようにします。 n8n コンテナ内のこのフォルダーは/data/shared
にあります。これは、ローカル ファイル システムと対話するノードで使用する必要があるパスです。
ローカル ファイル システムと対話するノード
このプロジェクトは、Apache License 2.0 に基づいてライセンスされています。詳細については、LICENSE ファイルを参照してください。
n8n フォーラムの会話に参加すると、次のことができます。