Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线操作。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。有关更多信息,请务必查看我们的 Open WebUI 文档。
?轻松设置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,支持:ollama
和:cuda
标记图像,获得无忧体验。
? Ollama/OpenAI API 集成:轻松集成与 OpenAI 兼容的 API,以便与 Ollama 模型进行多功能对话。自定义 OpenAI API URL 以链接到LMStudio、GroqCloud、Mistral、OpenRouter 等。
?管道、开放 WebUI 插件支持:使用管道插件框架将自定义逻辑和 Python 库无缝集成到开放 WebUI 中。启动您的 Pipelines 实例,将 OpenAI URL 设置为 Pipelines URL,并探索无限的可能性。示例包括函数调用、控制访问的用户速率限制、使用 Langfuse 等工具进行使用情况监控、使用 LibreTranslate 进行多语言支持的实时翻译、有毒消息过滤等等。
?响应式设计:享受跨台式电脑、笔记本电脑和移动设备的无缝体验。
?适用于移动设备的渐进式 Web 应用程序 (PWA) :使用我们的 PWA 在您的移动设备上享受类似本机应用程序的体验,提供本地主机上的离线访问和无缝的用户界面。
✒️?全面的 Markdown 和 LaTeX 支持:通过全面的 Markdown 和 LaTeX 功能来丰富交互,提升您的法学硕士体验。
??免提语音/视频通话:通过集成的免提语音和视频通话功能体验无缝通信,从而实现更加动态和互动的聊天环境。
?️模型生成器:通过 Web UI 轻松创建 Ollama 模型。通过开放 WebUI 社区集成轻松创建和添加自定义角色/代理、自定义聊天元素以及导入模型。
?原生 Python 函数调用工具:通过工具工作区中的内置代码编辑器支持增强您的 LLM。只需添加纯 Python 函数即可自带函数 (BYOF),从而实现与法学硕士的无缝集成。
?本地 RAG 集成:借助突破性的检索增强生成 (RAG) 支持,深入探索聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到文档库中,在查询之前使用#
命令轻松访问它们。
? RAG 的 Web 搜索:使用SearXNG
、 Google PSE
、 Brave Search
、 serpstack
、 serper
、 Serply
、 DuckDuckGo
、 TavilySearch
和SearchApi
等提供商执行 Web 搜索,并将结果直接注入您的聊天体验中。
?网页浏览功能:使用#
命令后跟 URL,将网站无缝集成到您的聊天体验中。此功能允许您将网络内容直接合并到您的对话中,从而增强交互的丰富性和深度。
?图像生成集成:使用 AUTOMATIC1111 API 或 ComfyUI(本地)以及 OpenAI 的 DALL-E(外部)等选项无缝集成图像生成功能,通过动态视觉内容丰富您的聊天体验。
⚙️多个模特对话:轻松地同时与多个模特互动,利用他们的独特优势来获得最佳响应。通过并行利用一组不同的模型来增强您的体验。
?基于角色的访问控制(RBAC) :确保具有受限权限的安全访问;只有经过授权的个人才能访问您的 Ollama,并且为管理员保留专有的模型创建/拉取权限。
??多语言支持:借助我们的国际化 (i18n) 支持,以您喜欢的语言体验开放式 WebUI。加入我们,扩展我们支持的语言!我们正在积极寻找贡献者!
?持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。
想要了解更多有关 Open WebUI 的功能吗?查看我们的 Open WebUI 文档以获取全面的概述!
不要忘记探索我们的兄弟项目 Open WebUI Community,您可以在其中发现、下载和探索定制的模型文件。 Open WebUI 社区提供了各种令人兴奋的可能性,可增强您与 Open WebUI 的聊天交互! ?
可以使用 Python 包安装程序 pip 来安装 Open WebUI。在继续之前,请确保您使用的是Python 3.11以避免兼容性问题。
安装 Open WebUI :打开终端并运行以下命令来安装 Open WebUI:
pip install open-webui
运行 Open WebUI :安装后,您可以通过执行以下命令启动 Open WebUI:
open-webui serve
这将启动 Open WebUI 服务器,您可以通过 http://localhost:8080 访问该服务器
笔记
请注意,对于某些 Docker 环境,可能需要额外的配置。如果您遇到任何连接问题,我们有关 Open WebUI 文档的详细指南随时可以为您提供帮助。
警告
使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含-v open-webui:/app/backend/data
。此步骤至关重要,因为它确保您的数据库正确安装并防止任何数据丢失。
提示
如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议使用带有:cuda
或:ollama
标记的官方图像。要启用 CUDA,您必须在 Linux/WSL 系统上安装 Nvidia CUDA 容器工具包。
如果 Ollama 在您的计算机上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果 Ollama 位于不同的服务器上,请使用以下命令:
要连接到另一台服务器上的 Ollama,请将OLLAMA_BASE_URL
更改为服务器的 URL:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要运行支持 Nvidia GPU 的 Open WebUI ,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
如果您仅使用 OpenAI API ,请使用以下命令:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
此安装方法使用将 Open WebUI 与 Ollama 捆绑在一起的单个容器映像,从而允许通过单个命令简化安装。根据您的硬件设置选择适当的命令:
使用 GPU 支持:通过运行以下命令来利用 GPU 资源:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
仅适用于 CPU :如果您不使用 GPU,请改用以下命令:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
这两个命令都有助于 Open WebUI 和 Ollama 的内置、无障碍安装,确保您可以快速启动并运行一切。
安装完成后,您可以通过http://localhost:3000访问Open WebUI。享受! ?
我们提供各种安装替代方案,包括非 Docker 本机安装方法、Docker Compose、Kustomize 和 Helm。请访问我们的 Open WebUI 文档或加入我们的 Discord 社区以获得全面的指导。
遇到连接问题?我们的 Open WebUI 文档已为您提供帮助。如需进一步帮助并加入我们充满活力的社区,请访问 Open WebUI Discord。
如果您遇到连接问题,通常是由于 WebUI docker 容器无法访问容器内位于 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 服务器。在 docker 命令中使用--network=host
标志来解决此问题。请注意,端口从 3000 更改为 8080,导致链接: http://localhost:8080
。
Docker 命令示例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果您想将本地 Docker 安装更新到最新版本,可以使用 Watchtower 来完成:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
在命令的最后部分,如果open-webui
不同,请将其替换为您的容器名称。
查看我们的 Open WebUI 文档中提供的迁移指南。
警告
:dev
分支包含最新的不稳定功能和更改。使用它的风险由您自行承担,因为它可能有错误或不完整的功能。
如果您想尝试最新的前沿功能并且可以接受偶尔的不稳定,您可以使用:dev
标签,如下所示:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
在 Open WebUI 文档中了解我们路线图上即将推出的功能。
该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅许可证文件。 ?
如果您有任何问题、建议或需要帮助,请提出问题或加入我们的 Open WebUI Discord 社区与我们联系! ?
由 Timothy Jaeryang Baek 创建 - 让我们一起让 Open WebUI 变得更加神奇! ?