Open WebUI — это расширяемый, многофункциональный и удобный автономный веб-интерфейс, предназначенный для работы полностью в автономном режиме. Он поддерживает различные программы LLM, включая Ollama и API-интерфейсы, совместимые с OpenAI. Для получения дополнительной информации обязательно ознакомьтесь с нашей документацией Open WebUI.
? Простая установка : простая установка с помощью Docker или Kubernetes (kubectl, kustomize или helm) для удобной работы с поддержкой изображений с тегами :ollama
и :cuda
.
? Интеграция API Ollama/OpenAI . Легко интегрируйте API-интерфейсы, совместимые с OpenAI, для универсального взаимодействия с моделями Ollama. Настройте URL-адрес API OpenAI для связи с LMStudio, GroqCloud, Mistral, OpenRouter и другими .
? Pipelines, поддержка плагинов Open WebUI . Легко интегрируйте пользовательскую логику и библиотеки Python в Open WebUI с помощью платформы плагинов Pipelines. Запустите свой экземпляр Pipelines, установите для URL-адреса OpenAI URL-адрес Pipelines и исследуйте безграничные возможности. Примеры включают вызов функций , ограничение скорости пользователя для контроля доступа, мониторинг использования с помощью таких инструментов, как Langfuse, живой перевод с LibreTranslate для многоязычной поддержки, фильтрацию токсичных сообщений и многое другое.
? Адаптивный дизайн . Наслаждайтесь плавной работой на настольном ПК, ноутбуке и мобильных устройствах.
? Прогрессивное веб-приложение (PWA) для мобильных устройств . Наслаждайтесь работой своего мобильного устройства, аналогичной приложению, с помощью нашего PWA, обеспечивающего автономный доступ на локальном хосте и удобный пользовательский интерфейс.
✒️? Полная поддержка Markdown и LaTeX : улучшите свой опыт работы в LLM с помощью комплексных возможностей Markdown и LaTeX для более эффективного взаимодействия.
?? Голосовой/видеозвонок без помощи рук : оцените удобство общения благодаря встроенным функциям голосовых и видеозвонков без помощи рук, что обеспечивает более динамичную и интерактивную среду чата.
?️ Конструктор моделей : легко создавайте модели Ollama через веб-интерфейс. Создавайте и добавляйте собственных персонажей/агентов, настраивайте элементы чата и легко импортируйте модели благодаря интеграции Open WebUI Community.
? Собственный инструмент вызова функций Python : улучшите свои LLM с помощью встроенной поддержки редактора кода в рабочей области инструментов. Создайте свою собственную функцию (BYOF), просто добавив свои чистые функции Python, что обеспечивает плавную интеграцию с LLM.
? Локальная интеграция RAG : погрузитесь в будущее взаимодействия в чате с революционной поддержкой технологии дополненной генерации (RAG). Эта функция легко интегрирует взаимодействие с документами в ваш чат. Вы можете загружать документы прямо в чат или добавлять файлы в свою библиотеку документов, легко получая к ним доступ с помощью команды #
перед запросом.
? Веб-поиск для RAG . Выполняйте поиск в Интернете с помощью таких поставщиков, как SearXNG
, Google PSE
, Brave Search
, serpstack
, serper
, Serply
, DuckDuckGo
, TavilySearch
и SearchApi
, и добавляйте результаты непосредственно в чат.
? Возможность просмотра веб-страниц . Легко интегрируйте веб-сайты в свой чат с помощью команды #
, за которой следует URL-адрес. Эта функция позволяет вам включать веб-контент непосредственно в ваши разговоры, повышая богатство и глубину вашего взаимодействия.
? Интеграция создания изображений : плавно включайте возможности создания изображений с помощью таких опций, как AUTOMATIC1111 API или ComfyUI (локальный) и DALL-E OpenAI (внешний), обогащая ваш чат динамическим визуальным контентом.
⚙️ Разговоры с множеством моделей . Легко взаимодействуйте с разными моделями одновременно, используя их уникальные сильные стороны для получения оптимальных ответов. Улучшите свой опыт, параллельно используя разнообразный набор моделей.
? Управление доступом на основе ролей (RBAC) : обеспечение безопасного доступа с ограниченными разрешениями; только авторизованные лица могут получить доступ к вашему Ollama, а эксклюзивные права на создание/извлечение моделей сохраняются за администраторами.
?? Многоязычная поддержка : используйте Open WebUI на предпочитаемом вами языке благодаря нашей поддержке интернационализации (i18n). Присоединяйтесь к нам в расширении поддерживаемых языков! Мы активно ищем участников!
? Непрерывные обновления : мы стремимся улучшать Open WebUI с помощью регулярных обновлений, исправлений и новых функций.
Хотите узнать больше о возможностях Open WebUI? Ознакомьтесь с нашей документацией по Open WebUI для получения подробного обзора!
Не забудьте изучить наш родственный проект Open WebUI Community, где вы можете находить, загружать и исследовать настроенные файлы моделей. Сообщество Open WebUI предлагает широкий спектр интересных возможностей для улучшения взаимодействия в чате с помощью Open WebUI! ?
Open WebUI можно установить с помощью pip, установщика пакетов Python. Прежде чем продолжить, убедитесь, что вы используете Python 3.11, чтобы избежать проблем с совместимостью.
Установите Open WebUI : откройте терминал и выполните следующую команду, чтобы установить Open WebUI:
pip install open-webui
Запуск Open WebUI : После установки вы можете запустить Open WebUI, выполнив:
open-webui serve
Это запустит сервер Open WebUI, доступ к которому вы можете получить по адресу http://localhost:8080.
Примечание
Обратите внимание, что для некоторых сред Docker могут потребоваться дополнительные настройки. Если у вас возникнут какие-либо проблемы с подключением, наше подробное руководство по открытой документации WebUI готово вам помочь.
Предупреждение
При использовании Docker для установки Open WebUI обязательно включите -v open-webui:/app/backend/data
в свою команду Docker. Этот шаг имеет решающее значение, поскольку он гарантирует правильное монтирование вашей базы данных и предотвращает потерю данных.
Кончик
Если вы хотите использовать Open WebUI с включенным Ollama или ускорением CUDA, мы рекомендуем использовать наши официальные изображения с тегами :cuda
или :ollama
. Чтобы включить CUDA, вам необходимо установить набор инструментов контейнера Nvidia CUDA в вашей системе Linux/WSL.
Если Ollama установлена на вашем компьютере , используйте эту команду:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Если Оллама находится на другом сервере , используйте эту команду:
Чтобы подключиться к Ollama на другом сервере, измените OLLAMA_BASE_URL
на URL-адрес сервера:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Чтобы запустить Open WebUI с поддержкой графического процессора Nvidia , используйте следующую команду:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Если вы используете только OpenAI API , используйте эту команду:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
В этом методе установки используется один образ контейнера, который объединяет Open WebUI с Ollama, что позволяет упростить настройку с помощью одной команды. Выберите соответствующую команду в зависимости от настроек вашего оборудования:
С поддержкой графического процессора : используйте ресурсы графического процессора, выполнив следующую команду:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Только для процессора : если вы не используете графический процессор, используйте вместо него эту команду:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Обе команды облегчают встроенную и беспроблемную установку Open WebUI и Ollama, гарантируя, что вы сможете быстро все запустить и запустить.
После установки вы можете получить доступ к Open WebUI по адресу http://localhost:3000. Наслаждаться! ?
Мы предлагаем различные варианты установки, включая методы установки, отличные от Docker, Docker Compose, Kustomize и Helm. Посетите нашу документацию по открытому веб-интерфейсу или присоединитесь к нашему сообществу Discord для получения подробных рекомендаций.
Возникли проблемы с подключением? Наша документация Open WebUI поможет вам. Чтобы получить дополнительную помощь и присоединиться к нашему динамичному сообществу, посетите Open WebUI Discord.
Если у вас возникли проблемы с подключением, это часто происходит из-за того, что док-контейнер WebUI не может связаться с сервером Ollama по адресу 127.0.0.1:11434 (host.docker.internal:11434) внутри контейнера. Чтобы решить эту проблему, используйте флаг --network=host
в команде docker. Обратите внимание, что порт меняется с 3000 на 8080, в результате чего получается ссылка: http://localhost:8080
.
Пример команды Docker :
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Если вы хотите обновить локальную установку Docker до последней версии, вы можете сделать это с помощью Watchtower:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
В последней части команды замените open-webui
именем вашего контейнера, если оно отличается.
Ознакомьтесь с нашим руководством по миграции, доступным в нашей документации по открытому веб-интерфейсу.
Предупреждение
Ветка :dev
содержит последние нестабильные функции и изменения. Используйте его на свой страх и риск, поскольку в нем могут быть ошибки или неполные функции.
Если вы хотите опробовать новейшие функции и вас устраивает периодическая нестабильность, вы можете использовать тег :dev
следующим образом:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
Узнайте о предстоящих функциях в нашей дорожной карте в документации Open WebUI.
Этот проект лицензируется по лицензии MIT — подробности см. в файле LICENSE. ?
Если у вас есть какие-либо вопросы, предложения или вам нужна помощь, откройте проблему или присоединитесь к нашему сообществу Open WebUI Discord, чтобы связаться с нами! ?
Создано Тимоти Джаерян Бэком. Давайте вместе сделаем Open WebUI еще более удивительным! ?