Open WebUI عبارة عن واجهة WebUI ذاتية الاستضافة وقابلة للتوسيع وغنية بالميزات وسهلة الاستخدام ومصممة للعمل دون الاتصال بالإنترنت تمامًا. وهو يدعم العديد من برامج تشغيل LLM، بما في ذلك واجهات برمجة التطبيقات المتوافقة مع Ollama وOpenAI. لمزيد من المعلومات، تأكد من مراجعة وثائق Open WebUI الخاصة بنا.
؟ الإعداد بدون جهد : قم بالتثبيت بسلاسة باستخدام Docker أو Kubernetes (kubectl أو kustomize أو helm) للحصول على تجربة خالية من المتاعب مع دعم كل من الصور ذات العلامات :ollama
و :cuda
.
؟ تكامل واجهة برمجة تطبيقات Ollama/OpenAI : يمكنك دمج واجهات برمجة التطبيقات المتوافقة مع OpenAI بسهولة لإجراء محادثات متعددة الاستخدامات جنبًا إلى جنب مع نماذج Ollama. قم بتخصيص عنوان URL لواجهة برمجة تطبيقات OpenAI للربط مع LMStudio وGroqCloud وMistral وOpenRouter والمزيد .
؟ Pipelines، دعم البرنامج المساعد WebUI المفتوح : دمج المنطق المخصص ومكتبات Python بسلاسة في Open WebUI باستخدام Pipelines Plugin Framework. قم بتشغيل مثيل Pipelines الخاص بك، وقم بتعيين عنوان URL لـ OpenAI على عنوان URL الخاص بـ Pipelines، واستكشف الاحتمالات التي لا نهاية لها. تشمل الأمثلة استدعاء الوظائف وتحديد معدل المستخدم للتحكم في الوصول ومراقبة الاستخدام باستخدام أدوات مثل Langfuse والترجمة المباشرة مع LibreTranslate للدعم متعدد اللغات وتصفية الرسائل السامة وغير ذلك الكثير.
؟ تصميم سريع الاستجابة : استمتع بتجربة سلسة عبر أجهزة الكمبيوتر المكتبية والكمبيوتر المحمول والأجهزة المحمولة.
؟ تطبيق الويب التقدمي (PWA) للجوال : استمتع بتجربة أصلية تشبه التطبيق على جهازك المحمول من خلال PWA الخاص بنا، مما يوفر إمكانية الوصول دون اتصال بالإنترنت على المضيف المحلي وواجهة مستخدم سلسة.
✒️؟ دعم Markdown وLaTeX الكامل : ارفع مستوى تجربة LLM الخاصة بك من خلال إمكانات Markdown وLaTeX الشاملة للتفاعل المثري.
؟؟ مكالمة صوتية/مرئية بدون استخدام اليدين : استمتع بتجربة اتصال سلسة مع ميزات مكالمات الصوت والفيديو المدمجة بدون استخدام اليدين، مما يسمح ببيئة دردشة أكثر ديناميكية وتفاعلية.
️ منشئ النماذج : قم بإنشاء نماذج Ollama بسهولة عبر واجهة مستخدم الويب. قم بإنشاء وإضافة أحرف/وكلاء مخصصين، وتخصيص عناصر الدردشة، واستيراد النماذج بسهولة من خلال تكامل Open WebUI Community.
؟ أداة استدعاء وظائف Python الأصلية : قم بتحسين برامج LLM الخاصة بك من خلال دعم محرر التعليمات البرمجية المدمج في مساحة عمل الأدوات. قم بإحضار وظيفتك الخاصة (BYOF) ببساطة عن طريق إضافة وظائف Python الخالصة، مما يتيح التكامل السلس مع LLMs.
؟ تكامل RAG المحلي : انغمس في مستقبل تفاعلات الدردشة مع دعم الجيل المعزز للاسترجاع (RAG). تعمل هذه الميزة على دمج تفاعلات المستندات في تجربة الدردشة الخاصة بك بسلاسة. يمكنك تحميل المستندات مباشرة إلى الدردشة أو إضافة ملفات إلى مكتبة المستندات الخاصة بك، والوصول إليها بسهولة باستخدام الأمر #
قبل الاستعلام.
؟ بحث الويب لـ RAG : قم بإجراء عمليات بحث على الويب باستخدام موفري خدمات مثل SearXNG
و Google PSE
و Brave Search
و serpstack
و serper
و Serply
و DuckDuckGo
و TavilySearch
و SearchApi
وإدخال النتائج مباشرة في تجربة الدردشة الخاصة بك.
؟ إمكانية تصفح الويب : يمكنك دمج مواقع الويب بسلاسة في تجربة الدردشة الخاصة بك باستخدام الأمر #
متبوعًا بعنوان URL. تسمح لك هذه الميزة بدمج محتوى الويب مباشرة في محادثاتك، مما يعزز ثراء وعمق تفاعلاتك.
؟ تكامل إنشاء الصور : دمج إمكانات إنشاء الصور بسلاسة باستخدام خيارات مثل AUTOMATIC1111 API أو ComfyUI (محلي)، وDALL-E (خارجي) من OpenAI، مما يثري تجربة الدردشة الخاصة بك بالمحتوى المرئي الديناميكي.
⚙️ محادثات العديد من النماذج : يمكنك التفاعل بسهولة مع العديد من النماذج في وقت واحد، واستغلال نقاط قوتها الفريدة للحصول على استجابات مثالية. عزز تجربتك من خلال الاستفادة من مجموعة متنوعة من النماذج بالتوازي.
؟ التحكم في الوصول المستند إلى الدور (RBAC) : ضمان الوصول الآمن بأذونات مقيدة؛ يمكن للأفراد المصرح لهم فقط الوصول إلى Ollama الخاص بك، وحقوق إنشاء/سحب النموذج الحصرية محفوظة للمسؤولين.
؟؟ دعم متعدد اللغات : استمتع بتجربة WebUI المفتوحة بلغتك المفضلة من خلال دعم التدويل (i18n). انضم إلينا في توسيع اللغات المدعومة لدينا! نحن نبحث بنشاط عن المساهمين!
؟ التحديثات المستمرة : نحن ملتزمون بتحسين Open WebUI من خلال التحديثات المنتظمة والإصلاحات والميزات الجديدة.
هل تريد معرفة المزيد حول ميزات Open WebUI؟ تحقق من وثائق Open WebUI الخاصة بنا للحصول على نظرة عامة شاملة!
لا تنس استكشاف مشروعنا الشقيق، Open WebUI Community، حيث يمكنك اكتشاف ملفات Modelfiles المخصصة وتنزيلها واستكشافها. يقدم مجتمع Open WebUI مجموعة واسعة من الإمكانيات المثيرة لتعزيز تفاعلات الدردشة الخاصة بك مع Open WebUI! ؟
يمكن تثبيت Open WebUI باستخدام pip، وهو مثبت حزمة Python. قبل المتابعة، تأكد من أنك تستخدم Python 3.11 لتجنب مشكلات التوافق.
تثبيت Open WebUI : افتح جهازك الطرفي وقم بتشغيل الأمر التالي لتثبيت Open WebUI:
pip install open-webui
تشغيل Open WebUI : بعد التثبيت، يمكنك بدء Open WebUI بتنفيذ:
open-webui serve
سيؤدي هذا إلى تشغيل خادم Open WebUI، والذي يمكنك الوصول إليه على http://localhost:8080
ملحوظة
يرجى ملاحظة أنه بالنسبة لبيئات Docker معينة، قد تكون هناك حاجة إلى تكوينات إضافية. إذا واجهت أي مشكلات في الاتصال، فإن دليلنا التفصيلي حول وثائق Open WebUI جاهز لمساعدتك.
تحذير
عند استخدام Docker لتثبيت Open WebUI، تأكد من تضمين -v open-webui:/app/backend/data
في أمر Docker. تعتبر هذه الخطوة حاسمة لأنها تضمن تثبيت قاعدة البيانات الخاصة بك بشكل صحيح وتمنع أي فقدان للبيانات.
نصيحة
إذا كنت ترغب في استخدام Open WebUI مع تضمين Ollama أو تسريع CUDA، فنوصي باستخدام صورنا الرسمية الموسومة إما بـ :cuda
أو :ollama
. لتمكين CUDA، يجب عليك تثبيت مجموعة أدوات حاوية Nvidia CUDA على نظام Linux/WSL الخاص بك.
إذا كان Ollama موجودًا على جهاز الكمبيوتر الخاص بك ، فاستخدم هذا الأمر:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
إذا كان Ollama موجودًا على خادم مختلف ، فاستخدم هذا الأمر:
للاتصال بـ Ollama على خادم آخر، قم بتغيير OLLAMA_BASE_URL
إلى عنوان URL الخاص بالخادم:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
لتشغيل Open WebUI مع دعم Nvidia GPU ، استخدم هذا الأمر:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
إذا كنت تستخدم OpenAI API فقط ، فاستخدم هذا الأمر:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
تستخدم طريقة التثبيت هذه صورة حاوية واحدة تجمع Open WebUI مع Ollama، مما يسمح بإعداد مبسط عبر أمر واحد. اختر الأمر المناسب بناءً على إعداد جهازك:
مع دعم GPU : استخدم موارد GPU عن طريق تشغيل الأمر التالي:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
لوحدة المعالجة المركزية فقط : إذا كنت لا تستخدم وحدة معالجة الرسومات، فاستخدم هذا الأمر بدلاً من ذلك:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
يعمل كلا الأمرين على تسهيل التثبيت المدمج والخالي من المتاعب لكل من Open WebUI وOllama، مما يضمن إمكانية تشغيل كل شيء بسرعة.
بعد التثبيت، يمكنك الوصول إلى Open WebUI على http://localhost:3000. يتمتع! ؟
نحن نقدم العديد من بدائل التثبيت، بما في ذلك طرق التثبيت الأصلية غير التابعة لـ Docker، وDocker Compose، وKustomize، وHelm. تفضل بزيارة وثائق WebUI المفتوحة أو انضم إلى مجتمع Discord الخاص بنا للحصول على إرشادات شاملة.
هل تواجه مشكلات في الاتصال؟ وثائق WebUI المفتوحة الخاصة بنا ستوفر لك التغطية. لمزيد من المساعدة والانضمام إلى مجتمعنا النابض بالحياة، قم بزيارة Open WebUI Discord.
إذا كنت تواجه مشكلات في الاتصال، فغالبًا ما يرجع ذلك إلى عدم قدرة حاوية WebUI docker على الوصول إلى خادم Ollama على 127.0.0.1:11434 (host.docker.internal:11434) داخل الحاوية. استخدم علامة --network=host
في أمر عامل الإرساء الخاص بك لحل هذه المشكلة. لاحظ أن المنفذ يتغير من 3000 إلى 8080 وينتج عن ذلك الرابط: http://localhost:8080
.
مثال لأمر عامل الميناء :
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
في حالة رغبتك في تحديث تثبيت Docker المحلي لديك إلى الإصدار الأحدث، يمكنك القيام بذلك باستخدام Watchtower:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
في الجزء الأخير من الأمر، استبدل open-webui
باسم الحاوية الخاصة بك إذا كان مختلفًا.
تحقق من دليل الترحيل الخاص بنا المتوفر في وثائق WebUI المفتوحة.
تحذير
يحتوي فرع :dev
على أحدث الميزات والتغييرات غير المستقرة. استخدمه على مسؤوليتك الخاصة لأنه قد يحتوي على أخطاء أو ميزات غير كاملة.
إذا كنت ترغب في تجربة أحدث الميزات المتطورة ولا بأس من عدم الاستقرار العرضي، فيمكنك استخدام علامة :dev
مثل هذا:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
اكتشف الميزات القادمة في خريطة الطريق الخاصة بنا في وثائق Open WebUI.
هذا المشروع مرخص بموجب ترخيص MIT - راجع ملف الترخيص للحصول على التفاصيل. ؟
إذا كانت لديك أي أسئلة أو اقتراحات أو كنت بحاجة إلى مساعدة، فيرجى فتح مشكلة أو الانضمام إلى مجتمع Open WebUI Discord للتواصل معنا! ؟
تم الإنشاء بواسطة Timothy Jaeryang Baek - فلنجعل Open WebUI أكثر روعة معًا! ؟