Open WebUI est une WebUI auto-hébergée extensible, riche en fonctionnalités et conviviale, conçue pour fonctionner entièrement hors ligne. Il prend en charge divers exécuteurs LLM, notamment les API compatibles Ollama et OpenAI. Pour plus d’informations, assurez-vous de consulter notre documentation Open WebUI.
? Configuration sans effort : installez en toute transparence à l'aide de Docker ou de Kubernetes (kubectl, kustomize ou helm) pour une expérience sans tracas avec la prise en charge des images balisées :ollama
et :cuda
.
? Intégration de l'API Ollama/OpenAI : intégrez sans effort des API compatibles OpenAI pour des conversations polyvalentes aux côtés des modèles Ollama. Personnalisez l'URL de l'API OpenAI pour établir un lien avec LMStudio, GroqCloud, Mistral, OpenRouter, etc.
? Pipelines, prise en charge du plug-in Open WebUI : intégrez de manière transparente une logique personnalisée et des bibliothèques Python dans Open WebUI à l'aide du framework de plug-in Pipelines. Lancez votre instance Pipelines, définissez l'URL OpenAI sur l'URL Pipelines et explorez des possibilités infinies. Les exemples incluent l'appel de fonction , la limitation du débit utilisateur pour contrôler l'accès, la surveillance de l'utilisation avec des outils comme Langfuse, la traduction en direct avec LibreTranslate pour une prise en charge multilingue, le filtrage des messages toxiques et bien plus encore.
? Conception réactive : profitez d'une expérience transparente sur les ordinateurs de bureau, les ordinateurs portables et les appareils mobiles.
? Progressive Web App (PWA) pour mobile : profitez d'une expérience de type application native sur votre appareil mobile avec notre PWA, offrant un accès hors ligne sur localhost et une interface utilisateur transparente.
✒️? Prise en charge complète de Markdown et de LaTeX : améliorez votre expérience LLM avec des fonctionnalités complètes de Markdown et de LaTeX pour une interaction enrichie.
?? Appel vocal/vidéo mains libres : bénéficiez d'une communication transparente avec des fonctionnalités d'appel vocal et vidéo mains libres intégrées, permettant un environnement de discussion plus dynamique et interactif.
?️ Model Builder : créez facilement des modèles Ollama via l'interface utilisateur Web. Créez et ajoutez des personnages/agents personnalisés, personnalisez les éléments de discussion et importez des modèles sans effort grâce à l'intégration de la communauté Open WebUI.
? Outil d'appel de fonctions Python natif : améliorez vos LLM avec la prise en charge de l'éditeur de code intégré dans l'espace de travail des outils. Apportez votre propre fonction (BYOF) en ajoutant simplement vos fonctions Python pures, permettant une intégration transparente avec les LLM.
? Intégration RAG locale : plongez dans l'avenir des interactions de chat avec la prise en charge révolutionnaire de la génération augmentée de récupération (RAG). Cette fonctionnalité intègre de manière transparente les interactions documentaires dans votre expérience de chat. Vous pouvez charger des documents directement dans le chat ou ajouter des fichiers à votre bibliothèque de documents, en y accédant sans effort à l'aide de la commande #
avant une requête.
? Recherche Web pour RAG : effectuez des recherches sur le Web à l'aide de fournisseurs tels que SearXNG
, Google PSE
, Brave Search
, serpstack
, serper
, Serply
, DuckDuckGo
, TavilySearch
et SearchApi
et injectez les résultats directement dans votre expérience de chat.
? Capacité de navigation Web : intégrez de manière transparente des sites Web à votre expérience de chat à l'aide de la commande #
suivie d'une URL. Cette fonctionnalité vous permet d'incorporer du contenu Web directement dans vos conversations, améliorant ainsi la richesse et la profondeur de vos interactions.
? Intégration de la génération d'images : intégrez de manière transparente des capacités de génération d'images à l'aide d'options telles que l'API AUTOMATIC1111 ou ComfyUI (local) et DALL-E d'OpenAI (externe), enrichissant votre expérience de chat avec un contenu visuel dynamique.
⚙️ Conversations avec de nombreux modèles : engagez-vous sans effort avec différents modèles simultanément, en exploitant leurs atouts uniques pour des réponses optimales. Améliorez votre expérience en exploitant un ensemble diversifié de modèles en parallèle.
? Contrôle d'accès basé sur les rôles (RBAC) : Garantissez un accès sécurisé avec des autorisations restreintes ; seules les personnes autorisées peuvent accéder à votre Ollama, et les droits exclusifs de création/extraction de modèles sont réservés aux administrateurs.
?? Prise en charge multilingue : découvrez Open WebUI dans votre langue préférée grâce à notre prise en charge de l'internationalisation (i18n). Rejoignez-nous pour élargir nos langues prises en charge ! Nous recherchons activement des contributeurs !
? Mises à jour continues : nous nous engageons à améliorer Open WebUI avec des mises à jour régulières, des correctifs et de nouvelles fonctionnalités.
Vous souhaitez en savoir plus sur les fonctionnalités d’Open WebUI ? Consultez notre documentation Open WebUI pour un aperçu complet !
N'oubliez pas d'explorer notre projet frère, Open WebUI Community, où vous pouvez découvrir, télécharger et explorer des fichiers modèles personnalisés. La communauté Open WebUI offre un large éventail de possibilités intéressantes pour améliorer vos interactions de chat avec Open WebUI ! ?
Open WebUI peut être installé à l'aide de pip, le programme d'installation du package Python. Avant de continuer, assurez-vous que vous utilisez Python 3.11 pour éviter les problèmes de compatibilité.
Installer Open WebUI : Ouvrez votre terminal et exécutez la commande suivante pour installer Open WebUI :
pip install open-webui
Exécution d'Open WebUI : Après l'installation, vous pouvez démarrer Open WebUI en exécutant :
open-webui serve
Cela démarrera le serveur Open WebUI, auquel vous pouvez accéder à l'adresse http://localhost:8080.
Note
Veuillez noter que pour certains environnements Docker, des configurations supplémentaires peuvent être nécessaires. Si vous rencontrez des problèmes de connexion, notre guide détaillé sur la documentation Open WebUI est prêt à vous aider.
Avertissement
Lorsque vous utilisez Docker pour installer Open WebUI, assurez-vous d'inclure le -v open-webui:/app/backend/data
dans votre commande Docker. Cette étape est cruciale car elle garantit que votre base de données est correctement montée et évite toute perte de données.
Conseil
Si vous souhaitez utiliser Open WebUI avec Ollama inclus ou l'accélération CUDA, nous vous recommandons d'utiliser nos images officielles étiquetées avec :cuda
ou :ollama
. Pour activer CUDA, vous devez installer la boîte à outils du conteneur Nvidia CUDA sur votre système Linux/WSL.
Si Ollama est sur votre ordinateur , utilisez cette commande :
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Si Ollama est sur un autre serveur , utilisez cette commande :
Pour vous connecter à Ollama sur un autre serveur, remplacez OLLAMA_BASE_URL
par l'URL du serveur :
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Pour exécuter Open WebUI avec la prise en charge du GPU Nvidia , utilisez cette commande :
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Si vous utilisez uniquement l'API OpenAI , utilisez cette commande :
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Cette méthode d'installation utilise une seule image de conteneur qui regroupe Open WebUI avec Ollama, permettant une configuration rationalisée via une seule commande. Choisissez la commande appropriée en fonction de votre configuration matérielle :
Avec prise en charge GPU : utilisez les ressources GPU en exécutant la commande suivante :
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Pour CPU uniquement : si vous n'utilisez pas de GPU, utilisez plutôt cette commande :
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Les deux commandes facilitent une installation intégrée et sans tracas d'Open WebUI et d'Ollama, garantissant que vous pouvez tout faire fonctionner rapidement.
Après l'installation, vous pouvez accéder à Open WebUI à l'adresse http://localhost:3000. Apprécier! ?
Nous proposons diverses alternatives d'installation, notamment des méthodes d'installation natives non Docker, Docker Compose, Kustomize et Helm. Visitez notre documentation Open WebUI ou rejoignez notre communauté Discord pour des conseils complets.
Vous rencontrez des problèmes de connexion ? Notre documentation Open WebUI est là pour vous. Pour obtenir de l’aide supplémentaire et pour rejoindre notre communauté dynamique, visitez le Discord Open WebUI.
Si vous rencontrez des problèmes de connexion, cela est souvent dû au fait que le conteneur Docker WebUI ne parvient pas à atteindre le serveur Ollama à l'adresse 127.0.0.1:11434 (host.docker.internal:11434) à l'intérieur du conteneur. Utilisez l'indicateur --network=host
dans votre commande docker pour résoudre ce problème. Notez que le port passe de 3000 à 8080, ce qui donne le lien : http://localhost:8080
.
Exemple de commande Docker :
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Si vous souhaitez mettre à jour votre installation Docker locale vers la dernière version, vous pouvez le faire avec Watchtower :
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
Dans la dernière partie de la commande, remplacez open-webui
par le nom de votre conteneur s'il est différent.
Consultez notre guide de migration disponible dans notre documentation Open WebUI.
Avertissement
La branche :dev
contient les dernières fonctionnalités et modifications instables. Utilisez-le à vos propres risques car il peut contenir des bugs ou des fonctionnalités incomplètes.
Si vous souhaitez essayer les dernières fonctionnalités de pointe et que vous acceptez une instabilité occasionnelle, vous pouvez utiliser la balise :dev
comme ceci :
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
Découvrez les fonctionnalités à venir sur notre feuille de route dans la documentation Open WebUI.
Ce projet est sous licence MIT - voir le fichier LICENSE pour plus de détails. ?
Si vous avez des questions, des suggestions ou avez besoin d'aide, veuillez ouvrir un problème ou rejoindre notre communauté Open WebUI Discord pour vous connecter avec nous ! ?
Créé par Timothy Jaeryang Baek - Rendons ensemble Open WebUI encore plus étonnant ! ?