Open WebUI は、完全にオフラインで動作するように設計された、拡張可能で機能が豊富で使いやすいセルフホスト型 WebUI です。 Ollama や OpenAI 互換 API など、さまざまな LLM ランナーをサポートします。詳細については、Open WebUI ドキュメントを必ずご確認ください。
?簡単なセットアップ: Docker または Kubernetes (kubectl、kusTOMize、または helm) を使用してシームレスにインストールし、 :ollama
と:cuda
タグ付きイメージの両方をサポートする手間のかからないエクスペリエンスを実現します。
? Ollama/OpenAI API 統合: OpenAI 互換 API を簡単に統合して、Ollama モデルと並行して多目的な会話を実現します。 OpenAI API URL をカスタマイズして、LMStudio、GroqCloud、Mistral、OpenRouter などとリンクします。
? Pipelines、Open WebUI Plugin Support : Pipelines Plugin Framework を使用して、カスタム ロジックと Python ライブラリを Open WebUI にシームレスに統合します。 Pipelines インスタンスを起動し、OpenAI URL を Pipelines URL に設定して、無限の可能性を探ってください。例には、関数呼び出し、アクセスを制御するユーザーレート制限、Langfuse などのツールを使用した使用状況モニタリング、多言語サポートのためのLibreTranslate を使用したライブ翻訳、有害メッセージ フィルタリングなどが含まれます。
?レスポンシブ デザイン: デスクトップ PC、ラップトップ、モバイル デバイス間でシームレスなエクスペリエンスをお楽しみください。
?モバイル用プログレッシブ Web アプリ (PWA) : 当社の PWA を使用すると、モバイル デバイスでネイティブ アプリのようなエクスペリエンスをお楽しみいただけます。ローカルホストでのオフライン アクセスとシームレスなユーザー インターフェイスが提供されます。
✒️? Markdown と LaTeX の完全なサポート: 充実した対話のための包括的な Markdown および LaTeX 機能により、LLM エクスペリエンスが向上します。
??ハンズフリー音声/ビデオ通話: 統合されたハンズフリー音声およびビデオ通話機能を使用してシームレスなコミュニケーションを体験し、よりダイナミックでインタラクティブなチャット環境を実現します。
?️モデル ビルダー: Web UI 経由で Ollama モデルを簡単に作成します。 Open WebUI Community 統合を通じて、カスタム キャラクター/エージェントの作成と追加、チャット要素のカスタマイズ、モデルのインポートを簡単に行うことができます。
?ネイティブ Python 関数呼び出しツール: ツール ワークスペースの組み込みコード エディター サポートにより LLM を強化します。純粋な Python 関数を追加するだけで、Bring Your Own Function (BYOF) が可能となり、LLM とのシームレスな統合が可能になります。
?ローカル RAG 統合: 画期的な取得拡張生成 (RAG) サポートにより、チャット インタラクションの未来を切り拓きます。この機能は、ドキュメントの対話をチャット エクスペリエンスにシームレスに統合します。ドキュメントをチャットに直接ロードしたり、ドキュメント ライブラリにファイルを追加したりでき、クエリの前に#
コマンドを使用して簡単にアクセスできます。
? RAG の Web 検索: SearXNG
、 Google PSE
、 Brave Search
、 serpstack
、 serper
、 Serply
、 DuckDuckGo
、 TavilySearch
、 SearchApi
などのプロバイダーを使用して Web 検索を実行し、結果をチャット エクスペリエンスに直接挿入します。
? Web ブラウズ機能: #
コマンドに続けて URL を使用すると、Web サイトをチャット エクスペリエンスにシームレスに統合できます。この機能を使用すると、Web コンテンツを会話に直接組み込むことができ、対話の豊かさと深みが向上します。
?画像生成の統合: AUTOMATIC1111 API や ComfyUI (ローカル)、OpenAI の DALL-E (外部) などのオプションを使用して画像生成機能をシームレスに組み込み、動的なビジュアル コンテンツでチャット エクスペリエンスを強化します。
⚙️多数のモデルとの会話: さまざまなモデルと同時に楽に対話し、それぞれの固有の強みを活用して最適な応答を実現します。さまざまなモデルのセットを並行して活用することで、エクスペリエンスを向上させます。
?ロールベースのアクセス制御 (RBAC) : 制限されたアクセス許可で安全なアクセスを確保します。許可された個人のみが Ollama にアクセスでき、排他的なモデルの作成/取得権限は管理者に留保されます。
??多言語サポート: 国際化 (i18n) サポートにより、お好みの言語で Open WebUI を体験してください。サポートされる言語の拡大に参加してください。協力者を積極的に募集しています!
?継続的なアップデート: 私たちは、定期的なアップデート、修正、新機能によって Open WebUI を改善することに取り組んでいます。
Open WebUI の機能について詳しく知りたいですか?包括的な概要については、Open WebUI のドキュメントをご覧ください。
兄弟プロジェクトである Open WebUI Community を忘れずに探索してください。ここでは、カスタマイズされた Modelfile を検出、ダウンロード、探索できます。 Open WebUI コミュニティは、Open WebUI とのチャット インタラクションを強化するための幅広いエキサイティングな可能性を提供します。 ?
Open WebUI は、Python パッケージ インストーラーである pip を使用してインストールできます。続行する前に、互換性の問題を避けるためにPython 3.11を使用していることを確認してください。
Open WebUI をインストールする: ターミナルを開き、次のコマンドを実行して Open WebUI をインストールします。
pip install open-webui
Open WebUI の実行: インストール後、以下を実行して Open WebUI を開始できます。
open-webui serve
これにより、http://localhost:8080 でアクセスできる Open WebUI サーバーが起動します。
注記
特定の Docker 環境では、追加の構成が必要になる場合があることに注意してください。接続の問題が発生した場合は、Open WebUI ドキュメントに関する詳細なガイドを参照してください。
警告
Docker を使用して Open WebUI をインストールする場合は、Docker コマンドに-v open-webui:/app/backend/data
必ず含めてください。この手順は、データベースが適切にマウントされていることを確認し、データの損失を防ぐため、非常に重要です。
ヒント
Ollama を含む Open WebUI または CUDA アクセラレーションを利用したい場合は、 :cuda
または:ollama
のいずれかがタグ付けされた公式イメージを利用することをお勧めします。 CUDA を有効にするには、Linux/WSL システムに Nvidia CUDA コンテナ ツールキットをインストールする必要があります。
Ollama がコンピュータ上にある場合は、次のコマンドを使用します。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Ollama が別のサーバー上にある場合は、次のコマンドを使用します。
別のサーバー上の Ollama に接続するには、 OLLAMA_BASE_URL
サーバーの URL に変更します。
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Nvidia GPU サポートを使用して Open WebUI を実行するには、次のコマンドを使用します。
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
OpenAI API のみを使用している場合は、次のコマンドを使用します。
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
このインストール方法では、Open WebUI と Ollama をバンドルする単一のコンテナ イメージを使用するため、単一のコマンドによる効率的なセットアップが可能になります。ハードウェア設定に基づいて適切なコマンドを選択します。
GPU サポートあり: 次のコマンドを実行して GPU リソースを利用します。
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
CPU のみ: GPU を使用していない場合は、代わりに次のコマンドを使用します。
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
どちらのコマンドも、Open WebUI と Ollama の両方の組み込みの手間のかからないインストールを容易にし、すべてを迅速に起動して実行できるようにします。
インストール後、http://localhost:3000 で Open WebUI にアクセスできます。楽しむ! ?
非 Docker ネイティブ インストール方法、Docker Compose、KusTOMize、Helm など、さまざまなインストール方法を提供しています。包括的なガイダンスについては、Open WebUI ドキュメントにアクセスするか、Discord コミュニティに参加してください。
接続の問題が発生しましたか?弊社の Open WebUI ドキュメントがすべてをカバーします。さらに支援が必要な場合、および活気のあるコミュニティに参加するには、Open WebUI Discord にアクセスしてください。
接続の問題が発生している場合、多くの場合、WebUI Docker コンテナーがコンテナー内の 127.0.0.1:11434 (host.docker.internal:11434) にある Ollama サーバーにアクセスできないことが原因です。これを解決するには、docker コマンドで--network=host
フラグを使用します。ポートが 3000 から 8080 に変更され、リンクhttp://localhost:8080
になることに注意してください。
Docker コマンドの例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
ローカルの Docker インストールを最新バージョンに更新したい場合は、Watchtower を使用してそれを行うことができます。
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
コマンドの最後の部分で、 open-webui
実際のコンテナー名と置き換えます (異なる場合)。
Open WebUI ドキュメントで入手可能な移行ガイドを確認してください。
警告
:dev
ブランチには、最新の不安定な機能と変更が含まれています。バグや不完全な機能がある可能性があるため、自己責任で使用してください。
最新の最先端機能を試してみたいが、時折不安定になっても大丈夫な場合は、次のように:dev
タグを使用できます。
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
Open WebUI ドキュメントのロードマップで今後の機能を確認してください。
このプロジェクトは MIT ライセンスに基づいてライセンスされています。詳細については、LICENSE ファイルを参照してください。 ?
ご質問、ご提案、またはサポートが必要な場合は、問題を開くか、Open WebUI Discord コミュニティに参加してご連絡ください。 ?
作成者: Timothy Jaeryang Baek - Open WebUI を一緒にさらに素晴らしいものにしましょう! ?