AI Starter Kit الذي تتم استضافته ذاتيًا هو قالب Docker Compose مفتوح المصدر مصمم للتهيئة السريعة لبيئة تطوير ذكاء اصطناعي محلية شاملة وبيئة تطوير منخفضة التعليمات البرمجية.
برعاية https://github.com/n8n-io، فهو يجمع بين النظام الأساسي n8n المستضاف ذاتيًا وقائمة منسقة من منتجات ومكونات الذكاء الاصطناعي المتوافقة للبدء سريعًا في إنشاء مسارات عمل الذكاء الاصطناعي المستضافة ذاتيًا.
نصيحة
إقرأ الإعلان
✅ n8n مستضاف ذاتيًا - منصة منخفضة الكود مع أكثر من 400 عملية تكامل ومكونات الذكاء الاصطناعي المتقدمة
✅ Ollama - منصة LLM متعددة المنصات لتثبيت وتشغيل أحدث برامج LLM المحلية
✅ Qdrant - متجر متجه مفتوح المصدر وعالي الأداء مع واجهة برمجة تطبيقات شاملة
✅ PostgreSQL - العمود الفقري لعالم هندسة البيانات، يتعامل مع كميات كبيرة من البيانات بأمان.
️ وكلاء الذكاء الاصطناعي لجدولة المواعيد
️ قم بتلخيص ملفات PDF الخاصة بالشركة بشكل آمن دون تسرب البيانات
️ Smarter Slack Bots لتعزيز اتصالات الشركة وعمليات تكنولوجيا المعلومات
️ تحليل المستندات المالية الخاصة بأقل تكلفة
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
ملحوظة
إذا لم تكن قد استخدمت وحدة معالجة الرسومات Nvidia الخاصة بك مع Docker من قبل، فيرجى اتباع تعليمات Ollama Docker.
إذا كنت تستخدم جهاز Mac مزودًا بمعالج M1 أو أحدث، فلن تتمكن من تعريض وحدة معالجة الرسومات الخاصة بك لمثيل Docker، للأسف. هناك خياران في هذه الحالة:
إذا كنت تريد تشغيل Ollama على جهاز Mac الخاص بك، فراجع صفحة Ollama الرئيسية للحصول على تعليمات التثبيت، وقم بتشغيل مجموعة أدوات البدء كما يلي:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
بعد اتباع إعداد البدء السريع أدناه، قم بتغيير بيانات اعتماد Ollama باستخدام http://host.docker.internal:11434/
كمضيف.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
جوهر مجموعة AI Starter Kit ذاتية الاستضافة هو ملف Docker Compose، الذي تم تكوينه مسبقًا باستخدام إعدادات الشبكة والتخزين، مما يقلل الحاجة إلى عمليات تثبيت إضافية. بعد إكمال خطوات التثبيت المذكورة أعلاه، ما عليك سوى اتباع الخطوات أدناه للبدء.
لفتح n8n في أي وقت، قم بزيارة http://localhost:5678/ في متصفحك.
باستخدام مثيل n8n الخاص بك، سيكون لديك إمكانية الوصول إلى أكثر من 400 عملية تكامل ومجموعة من عقد الذكاء الاصطناعي الأساسية والمتقدمة مثل AI Agent، ومصنف النص، وعقد مستخرج المعلومات. للحفاظ على كل شيء محليًا، تذكر فقط استخدام عقدة Ollama لنموذج لغتك وQdrant كمتجر متجه.
ملحوظة
تم تصميم مجموعة الأدوات هذه لمساعدتك على البدء في سير عمل الذكاء الاصطناعي المستضاف ذاتيًا. على الرغم من أنه لم يتم تحسينه بالكامل لبيئات الإنتاج، إلا أنه يجمع بين المكونات القوية التي تعمل معًا بشكل جيد لمشاريع إثبات المفهوم. يمكنك تخصيصه لتلبية احتياجاتك المحددة
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n مليء بالمحتوى المفيد للبدء بسرعة بمفاهيم وعقد الذكاء الاصطناعي. إذا واجهت مشكلة، انتقل إلى الدعم.
لمزيد من أفكار سير عمل الذكاء الاصطناعي، قم بزيارة معرض قوالب n8n AI الرسمي . من كل سير عمل، حدد زر استخدام سير العمل لاستيراد سير العمل تلقائيًا إلى مثيل n8n المحلي.
ستقوم مجموعة أدوات الذكاء الاصطناعي ذاتية الاستضافة بإنشاء مجلد مشترك (افتراضيًا، يقع في نفس الدليل) والذي يتم تثبيته على حاوية n8n ويسمح لـ n8n بالوصول إلى الملفات الموجودة على القرص. يقع هذا المجلد داخل حاوية n8n في /data/shared
- وهذا هو المسار الذي ستحتاج إلى استخدامه في العقد التي تتفاعل مع نظام الملفات المحلي.
العقد التي تتفاعل مع نظام الملفات المحلي
تم ترخيص هذا المشروع بموجب ترخيص Apache 2.0 - راجع ملف الترخيص للحصول على التفاصيل.
انضم إلى المحادثة في منتدى n8n، حيث يمكنك: