AI Starter Kit yang dihosting sendiri adalah templat Docker Compose sumber terbuka yang dirancang untuk menginisialisasi AI lokal yang komprehensif dan lingkungan pengembangan kode rendah dengan cepat.
Dikurasi oleh https://github.com/n8n-io, ini menggabungkan platform n8n yang dihosting sendiri dengan daftar produk dan komponen AI yang kompatibel untuk segera mulai membangun alur kerja AI yang dihosting sendiri.
Tip
Baca pengumumannya
✅ N8n yang dihosting sendiri - Platform berkode rendah dengan lebih dari 400 integrasi dan komponen AI tingkat lanjut
✅ Ollama - Platform LLM lintas platform untuk menginstal dan menjalankan LLM lokal terbaru
✅ Qdrant - Penyimpanan vektor sumber terbuka dan berkinerja tinggi dengan API komprehensif
✅ PostgreSQL - Pekerja keras di dunia Teknik Data, menangani data dalam jumlah besar dengan aman.
️ Agen AI untuk menjadwalkan janji temu
️ Ringkas PDF Perusahaan dengan aman tanpa kebocoran data
️ Bot Slack yang Lebih Cerdas untuk meningkatkan komunikasi perusahaan dan operasi TI
️ Analisis Dokumen Keuangan Pribadi dengan biaya minimal
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
Catatan
Jika Anda belum pernah menggunakan GPU Nvidia dengan Docker sebelumnya, ikuti instruksi Ollama Docker.
Sayangnya, jika Anda menggunakan Mac dengan prosesor M1 atau lebih baru, Anda tidak dapat mengekspos GPU Anda ke instance Docker. Ada dua pilihan dalam hal ini:
Jika Anda ingin menjalankan Ollama di Mac Anda, periksa beranda Ollama untuk petunjuk instalasi, dan jalankan starter kit sebagai berikut:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
Setelah Anda mengikuti pengaturan mulai cepat di bawah ini, ubah kredensial Ollama dengan menggunakan http://host.docker.internal:11434/
sebagai host.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
Inti dari AI Starter Kit yang dihosting sendiri adalah file Docker Compose, yang telah dikonfigurasi sebelumnya dengan pengaturan jaringan dan penyimpanan, sehingga meminimalkan kebutuhan instalasi tambahan. Setelah menyelesaikan langkah-langkah instalasi di atas, cukup ikuti langkah-langkah di bawah ini untuk memulai.
Untuk membuka n8n kapan saja, kunjungi http://localhost:5678/ di browser Anda.
Dengan instans n8n, Anda akan memiliki akses ke lebih dari 400 integrasi dan serangkaian node AI dasar dan lanjutan seperti Agen AI, Pengklasifikasi teks, dan node Ekstraktor Informasi. Untuk menjaga semuanya tetap lokal, ingatlah untuk menggunakan node Ollama untuk model bahasa Anda dan Qdrant sebagai penyimpanan vektor Anda.
Catatan
Starter kit ini dirancang untuk membantu Anda memulai alur kerja AI yang dihosting sendiri. Meskipun tidak sepenuhnya dioptimalkan untuk lingkungan produksi, ia menggabungkan komponen kuat yang bekerja sama dengan baik untuk proyek pembuktian konsep. Anda dapat menyesuaikannya untuk memenuhi kebutuhan spesifik Anda
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n penuh dengan konten bermanfaat untuk memulai dengan cepat konsep dan node AI-nya. Jika Anda mengalami masalah, hubungi dukungan.
Untuk ide alur kerja AI lainnya, kunjungi galeri template AI n8n resmi . Dari setiap alur kerja, pilih tombol Gunakan alur kerja untuk mengimpor alur kerja secara otomatis ke instans n8n lokal Anda.
Starter kit AI yang dihosting sendiri akan membuat folder bersama (secara default, terletak di direktori yang sama) yang dipasang ke kontainer n8n dan memungkinkan n8n mengakses file di disk. Folder dalam wadah n8n ini terletak di /data/shared
-- ini adalah jalur yang harus Anda gunakan di node yang berinteraksi dengan sistem file lokal.
Node yang berinteraksi dengan sistem file lokal
Proyek ini dilisensikan di bawah Lisensi Apache 2.0 - lihat file LISENSI untuk detailnya.
Bergabunglah dalam percakapan di Forum n8n, di mana Anda dapat: