Open WebUI 是一個可擴展、功能豐富且用戶友好的自託管 WebUI,旨在完全離線操作。它支援各種 LLM 運行程序,包括 Ollama 和 OpenAI 相容的 API。有關更多信息,請務必查看我們的 Open WebUI 文件。
?輕鬆設定:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)無縫安裝,支援:ollama
和:cuda
標記映像,獲得無憂體驗。
? Ollama/OpenAI API 整合:輕鬆整合與 OpenAI 相容的 API,以便與 Ollama 模型進行多功能對話。自訂 OpenAI API URL 以連結到LMStudio、GroqCloud、Mistral、OpenRouter 等。
?管道、開放 WebUI 外掛程式支援:使用管道外掛程式框架將自訂邏輯和 Python 庫無縫整合到開放 WebUI 中。啟動您的 Pipelines 實例,將 OpenAI URL 設定為 Pipelines URL,並探索無限的可能性。例如函數呼叫、控制存取的使用者速率限制、使用 Langfuse 等工具進行使用監控、使用 LibreTranslate 進行多語言支援的即時翻譯、有毒訊息過濾等等。
?響應式設計:享受跨桌上型電腦、筆記型電腦和行動裝置的無縫體驗。
?適用於行動裝置的漸進式 Web 應用程式 (PWA) :使用我們的 PWA 在您的行動裝置上享受類似本機應用程式的體驗,提供本機上的離線存取和無縫的使用者介面。
✒️?全面的 Markdown 和 LaTeX 支援:透過全面的 Markdown 和 LaTeX 功能來豐富交互,提升您的法學碩士體驗。
??免持語音/視訊通話:透過整合的免持語音和視訊通話功能體驗無縫通信,從而實現更動態和互動的聊天環境。
?️模型產生器:透過 Web UI 輕鬆建立 Ollama 模型。透過開放 WebUI 社群整合輕鬆建立和新增自訂角色/代理程式、自訂聊天元素以及匯入模型。
?原生 Python 函數呼叫工具:透過工具工作區中的內建程式碼編輯器支援增強您的 LLM。只需添加純 Python 函數即可自帶函數 (BYOF),從而實現與法學碩士的無縫整合。
?本地 RAG 整合:借助突破性的檢索增強生成 (RAG) 支持,深入探索聊天互動的未來。此功能將文件互動無縫整合到您的聊天體驗中。您可以將文件直接載入到聊天中或將文件新增至文件庫中,在查詢之前使用#
指令輕鬆存取它們。
? RAG 的 Web 搜尋:使用SearXNG
、 Google PSE
、 Brave Search
、 serpstack
、 serper
、 Serply
、 DuckDuckGo
、 TavilySearch
和SearchApi
等提供者執行 Web 搜索,並將結果直接注入您的聊天體驗。
?網頁瀏覽功能:使用#
指令後跟 URL,將網站無縫整合到您的聊天體驗中。此功能可讓您將網路內容直接合併到您的對話中,從而增強互動的豐富性和深度。
?影像產生整合:使用 AUTOMATIC1111 API 或 ComfyUI(本地)以及 OpenAI 的 DALL-E(外部)等選項無縫整合影像產生功能,透過動態視覺內容豐富您的聊天體驗。
⚙️多個模特兒對話:輕鬆地同時與多個模特兒互動,利用他們的獨特優勢來獲得最佳回應。透過並行利用一組不同的模型來增強您的體驗。
?基於角色的存取控制(RBAC) :確保具有受限權限的安全存取;只有經過授權的個人才能存取您的 Ollama,並為管理員保留專有的模型建立/拉取權限。
??多語言支援:借助我們的國際化 (i18n) 支持,以您喜歡的語言體驗開放式 WebUI。加入我們,擴展我們支援的語言!我們正在積極尋找貢獻者!
?持續更新:我們致力於透過定期更新、修復和新功能來改進 Open WebUI。
想了解更多 Open WebUI 的功能嗎?查看我們的 Open WebUI 文件以獲取全面的概述!
不要忘記探索我們的兄弟專案 Open WebUI Community,您可以在其中發現、下載和探索自訂模型檔案。 Open WebUI 社群提供了各種令人興奮的可能性,可增強您與 Open WebUI 的聊天互動! ?
可以使用 Python 套件安裝程式 pip 來安裝 Open WebUI。在繼續之前,請確保您使用的是Python 3.11以避免相容性問題。
安裝 Open WebUI :開啟終端機並執行以下命令來安裝 Open WebUI:
pip install open-webui
執行 Open WebUI :安裝後,您可以透過執行以下命令啟動 Open WebUI:
open-webui serve
這將啟動 Open WebUI 伺服器,您可以透過 http://localhost:8080 存取該伺服器
筆記
請注意,對於某些 Docker 環境,可能需要額外的配置。如果您遇到任何連線問題,我們有關 Open WebUI 文件的詳細指南隨時可以為您提供協助。
警告
使用 Docker 安裝 Open WebUI 時,請確保在 Docker 指令中包含-v open-webui:/app/backend/data
。此步驟至關重要,因為它確保您的資料庫正確安裝並防止任何資料遺失。
提示
如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我們建議使用帶有:cuda
或:ollama
標記的官方映像。若要啟用 CUDA,您必須在 Linux/WSL 系統上安裝 Nvidia CUDA 容器工具包。
如果 Ollama 在您的電腦上,請使用下列命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果 Ollama 位於不同的伺服器上,請使用下列命令:
若要連接到另一台伺服器上的 Ollama,請將OLLAMA_BASE_URL
變更為伺服器的 URL:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
若要執行支援 Nvidia GPU 的 Open WebUI ,請使用下列命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
如果您僅使用 OpenAI API ,請使用以下命令:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
此安裝方法使用將 Open WebUI 與 Ollama 捆綁在一起的單一容器映像,從而允許透過單一命令簡化安裝。根據您的硬體設定選擇適當的命令:
使用 GPU 支援:透過執行以下命令來利用 GPU 資源:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
僅適用於 CPU :如果您不使用 GPU,請改用以下命令:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
這兩個命令都有助於 Open WebUI 和 Ollama 的內建、無障礙安裝,確保您可以快速啟動並運行所有內容。
安裝完成後,您可以透過http://localhost:3000存取Open WebUI。享受! ?
我們提供各種安裝替代方案,包括非 Docker 本機安裝方法、Docker Compose、Kustomize 和 Helm。請造訪我們的 Open WebUI 文件或加入我們的 Discord 社群以獲得全面的指導。
遇到連線問題?我們的 Open WebUI 文件已為您提供協助。如需進一步協助並加入我們充滿活力的社區,請造訪 Open WebUI Discord。
如果您遇到連線問題,通常是由於 WebUI docker 容器無法存取容器內位於 127.0.0.1:11434 (host.docker.internal:11434) 的 Ollama 伺服器。在 docker 指令中使用--network=host
標誌來解決此問題。請注意,連接埠從 3000 更改為 8080,導致連結: http://localhost:8080
。
Docker 指令範例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果您想將本機 Docker 安裝更新到最新版本,可以使用 Watchtower 來完成:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
在命令的最後部分,如果open-webui
不同,請將其替換為您的容器名稱。
查看我們的 Open WebUI 文件中提供的遷移指南。
警告
:dev
分支包含最新的不穩定功能和變更。使用它的風險由您自行承擔,因為它可能有錯誤或不完整的功能。
如果您想嘗試最新的前沿功能並且可以接受偶爾的不穩定,您可以使用:dev
標籤,如下所示:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
在 Open WebUI 文件中了解我們路線圖上即將推出的功能。
該項目根據 MIT 許可證獲得許可 - 有關詳細信息,請參閱許可證文件。 ?
如果您有任何問題、建議或需要協助,請提出問題或加入我們的 Open WebUI Discord 社群與我們聯絡! ?
由 Timothy Jaeryang Baek 創建 - 讓我們一起讓 Open WebUI 變得更加神奇! ?