Open WebUI ist eine erweiterbare, funktionsreiche und benutzerfreundliche, selbst gehostete WebUI, die für den vollständigen Offline-Betrieb konzipiert ist. Es unterstützt verschiedene LLM-Läufer, einschließlich Ollama- und OpenAI-kompatibler APIs. Weitere Informationen finden Sie in unserer Open WebUI-Dokumentation.
? Mühelose Einrichtung : Nahtlose Installation mit Docker oder Kubernetes (kubectl, kustomize oder helm) für ein problemloses Erlebnis mit Unterstützung für mit :ollama
und :cuda
markierte Bilder.
? Ollama/OpenAI-API-Integration : Integrieren Sie mühelos OpenAI-kompatible APIs für vielseitige Konversationen neben Ollama-Modellen. Passen Sie die OpenAI-API-URL an, um eine Verknüpfung mit LMStudio, GroqCloud, Mistral, OpenRouter und mehr herzustellen.
? Unterstützung für Pipelines und Open WebUI-Plugins : Integrieren Sie mithilfe des Pipelines Plugin Framework nahtlos benutzerdefinierte Logik und Python-Bibliotheken in Open WebUI. Starten Sie Ihre Pipelines-Instanz, legen Sie die OpenAI-URL auf die Pipelines-URL fest und erkunden Sie endlose Möglichkeiten. Beispiele hierfür sind Funktionsaufrufe , Benutzerratenbegrenzung zur Zugriffskontrolle, Nutzungsüberwachung mit Tools wie Langfuse, Live-Übersetzung mit LibreTranslate für mehrsprachige Unterstützung, Toxic Message Filtering und vieles mehr.
? Responsives Design : Genießen Sie ein nahtloses Erlebnis auf Desktop-PCs, Laptops und Mobilgeräten.
? Progressive Web App (PWA) für Mobilgeräte : Genießen Sie mit unserer PWA ein natives App-ähnliches Erlebnis auf Ihrem Mobilgerät und bieten Sie Offline-Zugriff auf localhost und eine nahtlose Benutzeroberfläche.
✒️? Vollständige Markdown- und LaTeX-Unterstützung : Steigern Sie Ihr LLM-Erlebnis mit umfassenden Markdown- und LaTeX-Funktionen für eine bereichernde Interaktion.
?? Freihändiger Sprach-/Videoanruf : Erleben Sie nahtlose Kommunikation mit integrierten Freisprech-Sprach- und Videoanruffunktionen, die eine dynamischere und interaktivere Chat-Umgebung ermöglichen.
?️ Model Builder : Erstellen Sie ganz einfach Ollama-Modelle über die Web-Benutzeroberfläche. Erstellen und fügen Sie benutzerdefinierte Charaktere/Agenten hinzu, passen Sie Chat-Elemente an und importieren Sie Modelle mühelos über die Open WebUI Community-Integration.
? Natives Python-Funktionsaufruf-Tool : Erweitern Sie Ihre LLMs mit integrierter Code-Editor-Unterstützung im Tools-Arbeitsbereich. Bringen Sie Ihre eigene Funktion (BYOF) mit, indem Sie einfach Ihre reinen Python-Funktionen hinzufügen und so eine nahtlose Integration mit LLMs ermöglichen.
? Lokale RAG-Integration : Tauchen Sie ein in die Zukunft der Chat-Interaktionen mit bahnbrechender Retrieval Augmented Generation (RAG)-Unterstützung. Diese Funktion integriert Dokumentinteraktionen nahtlos in Ihr Chat-Erlebnis. Sie können Dokumente direkt in den Chat laden oder Dateien zu Ihrer Dokumentbibliothek hinzufügen und vor einer Abfrage mühelos mit dem #
-Befehl darauf zugreifen.
? Websuche für RAG : Führen Sie Websuchen mit Anbietern wie SearXNG
, Google PSE
, Brave Search
, serpstack
, serper
, Serply
, DuckDuckGo
, TavilySearch
und SearchApi
durch und fügen Sie die Ergebnisse direkt in Ihr Chat-Erlebnis ein.
? Web-Browsing-Funktion : Integrieren Sie Websites nahtlos in Ihr Chat-Erlebnis, indem Sie den #
-Befehl gefolgt von einer URL verwenden. Mit dieser Funktion können Sie Webinhalte direkt in Ihre Gespräche integrieren und so die Fülle und Tiefe Ihrer Interaktionen steigern.
? Integration der Bildgenerierung : Integrieren Sie Bildgenerierungsfunktionen mithilfe von Optionen wie AUTOMATIC1111 API oder ComfyUI (lokal) und DALL-E von OpenAI (extern) nahtlos und bereichern Sie Ihr Chat-Erlebnis mit dynamischen visuellen Inhalten.
⚙️ Gespräche mit vielen Models : Nehmen Sie mühelos gleichzeitig Kontakt zu verschiedenen Models auf und nutzen Sie deren einzigartige Stärken für optimale Reaktionen. Verbessern Sie Ihr Erlebnis, indem Sie verschiedene Modelle parallel nutzen.
? Rollenbasierte Zugriffskontrolle (RBAC) : Gewährleisten Sie sicheren Zugriff mit eingeschränkten Berechtigungen; Nur autorisierte Personen können auf Ihr Ollama zugreifen und die exklusiven Rechte zum Erstellen/Abrufen von Modellen sind Administratoren vorbehalten.
?? Mehrsprachiger Support : Erleben Sie Open WebUI in Ihrer bevorzugten Sprache mit unserer Internationalisierungsunterstützung (i18n). Helfen Sie uns bei der Erweiterung unserer unterstützten Sprachen! Wir sind aktiv auf der Suche nach Mitwirkenden!
? Kontinuierliche Updates : Wir sind bestrebt, Open WebUI durch regelmäßige Updates, Korrekturen und neue Funktionen zu verbessern.
Möchten Sie mehr über die Funktionen von Open WebUI erfahren? Einen umfassenden Überblick finden Sie in unserer Open WebUI-Dokumentation!
Vergessen Sie nicht, unser Schwesterprojekt Open WebUI Community zu erkunden, in dem Sie benutzerdefinierte Modelldateien entdecken, herunterladen und erkunden können. Die Open WebUI Community bietet eine Vielzahl spannender Möglichkeiten zur Verbesserung Ihrer Chat-Interaktionen mit Open WebUI! ?
Open WebUI kann mit pip, dem Python-Paketinstallationsprogramm, installiert werden. Bevor Sie fortfahren, stellen Sie sicher, dass Sie Python 3.11 verwenden, um Kompatibilitätsprobleme zu vermeiden.
Open WebUI installieren : Öffnen Sie Ihr Terminal und führen Sie den folgenden Befehl aus, um Open WebUI zu installieren:
pip install open-webui
Ausführen von Open WebUI : Nach der Installation können Sie Open WebUI starten, indem Sie Folgendes ausführen:
open-webui serve
Dadurch wird der Open WebUI-Server gestartet, auf den Sie unter http://localhost:8080 zugreifen können
Notiz
Bitte beachten Sie, dass für bestimmte Docker-Umgebungen möglicherweise zusätzliche Konfigurationen erforderlich sind. Wenn Sie auf Verbindungsprobleme stoßen, hilft Ihnen unser ausführlicher Leitfaden zur Open WebUI-Dokumentation weiter.
Warnung
Wenn Sie Docker zum Installieren von Open WebUI verwenden, stellen Sie sicher, dass -v open-webui:/app/backend/data
in Ihren Docker-Befehl aufnehmen. Dieser Schritt ist von entscheidender Bedeutung, da er sicherstellt, dass Ihre Datenbank ordnungsgemäß bereitgestellt wird und Datenverlust verhindert wird.
Tipp
Wenn Sie Open WebUI mit Ollama oder CUDA-Beschleunigung nutzen möchten, empfehlen wir die Verwendung unserer offiziellen Bilder, die entweder mit :cuda
oder :ollama
getaggt sind. Um CUDA zu aktivieren, müssen Sie das Nvidia CUDA-Container-Toolkit auf Ihrem Linux/WSL-System installieren.
Wenn sich Ollama auf Ihrem Computer befindet , verwenden Sie diesen Befehl:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Wenn sich Ollama auf einem anderen Server befindet , verwenden Sie diesen Befehl:
Um eine Verbindung zu Ollama auf einem anderen Server herzustellen, ändern Sie die OLLAMA_BASE_URL
in die URL des Servers:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Um Open WebUI mit Nvidia-GPU-Unterstützung auszuführen , verwenden Sie diesen Befehl:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Wenn Sie nur die OpenAI-API verwenden , verwenden Sie diesen Befehl:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Diese Installationsmethode verwendet ein einzelnes Container-Image, das Open WebUI mit Ollama bündelt und so eine optimierte Einrichtung über einen einzigen Befehl ermöglicht. Wählen Sie den passenden Befehl basierend auf Ihrem Hardware-Setup:
Mit GPU-Unterstützung : Nutzen Sie GPU-Ressourcen, indem Sie den folgenden Befehl ausführen:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Nur für CPU : Wenn Sie keine GPU verwenden, verwenden Sie stattdessen diesen Befehl:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Beide Befehle ermöglichen eine integrierte, problemlose Installation von Open WebUI und Ollama und stellen so sicher, dass Sie alles schnell zum Laufen bringen können.
Nach der Installation können Sie unter http://localhost:3000 auf Open WebUI zugreifen. Genießen! ?
Wir bieten verschiedene Installationsalternativen an, darunter native Nicht-Docker-Installationsmethoden, Docker Compose, Kustomize und Helm. Besuchen Sie unsere Open WebUI-Dokumentation oder treten Sie unserer Discord-Community bei, um umfassende Anleitungen zu erhalten.
Treten Verbindungsprobleme auf? Unsere Open WebUI-Dokumentation bietet Ihnen alles, was Sie brauchen. Für weitere Unterstützung und um unserer lebendigen Community beizutreten, besuchen Sie den Open WebUI Discord.
Wenn Verbindungsprobleme auftreten, liegt das häufig daran, dass der WebUI-Docker-Container den Ollama-Server unter 127.0.0.1:11434 (host.docker.internal:11434) im Container nicht erreichen kann. Verwenden Sie das Flag --network=host
in Ihrem Docker-Befehl, um dieses Problem zu beheben. Beachten Sie, dass sich der Port von 3000 auf 8080 ändert, was zu folgendem Link führt: http://localhost:8080
.
Beispiel eines Docker-Befehls :
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Falls Sie Ihre lokale Docker-Installation auf die neueste Version aktualisieren möchten, können Sie dies mit Watchtower tun:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
Ersetzen Sie im letzten Teil des Befehls open-webui
durch Ihren Containernamen, falls dieser anders ist.
Sehen Sie sich unseren Migrationsleitfaden an, der in unserer Open WebUI-Dokumentation verfügbar ist.
Warnung
Der :dev
-Zweig enthält die neuesten instabilen Funktionen und Änderungen. Die Nutzung erfolgt auf eigene Gefahr, da es Fehler oder unvollständige Funktionen enthalten kann.
Wenn Sie die neuesten Funktionen ausprobieren möchten und mit gelegentlicher Instabilität einverstanden sind, können Sie das :dev
-Tag wie folgt verwenden:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
Entdecken Sie kommende Funktionen auf unserer Roadmap in der Open WebUI-Dokumentation.
Dieses Projekt ist unter der MIT-Lizenz lizenziert – Einzelheiten finden Sie in der LIZENZ-Datei. ?
Wenn Sie Fragen oder Vorschläge haben oder Hilfe benötigen, öffnen Sie bitte ein Problem oder treten Sie unserer Open WebUI Discord-Community bei, um mit uns in Kontakt zu treten! ?
Erstellt von Timothy Jaeryang Baek – Lassen Sie uns gemeinsam Open WebUI noch erstaunlicher machen! ?