Open WebUI é uma WebUI auto-hospedada extensível, rica em recursos e fácil de usar, projetada para operar totalmente offline. Ele oferece suporte a vários executores LLM, incluindo APIs compatíveis com Ollama e OpenAI. Para obter mais informações, verifique nossa documentação Open WebUI.
? Configuração sem esforço : instale perfeitamente usando Docker ou Kubernetes (kubectl, kustomize ou helm) para uma experiência descomplicada com suporte para imagens marcadas com :ollama
e :cuda
.
? Integração de API Ollama/OpenAI : integre facilmente APIs compatíveis com OpenAI para conversas versáteis junto com modelos Ollama. Personalize o URL da API OpenAI para vincular com LMStudio, GroqCloud, Mistral, OpenRouter e muito mais .
? Pipelines, suporte ao plug-in Open WebUI : integre perfeitamente lógica personalizada e bibliotecas Python ao Open WebUI usando o Pipelines Plugin Framework. Inicie sua instância do Pipelines, defina a URL do OpenAI como a URL do Pipelines e explore possibilidades infinitas. Os exemplos incluem chamada de função , limitação de taxa de usuário para controlar o acesso, monitoramento de uso com ferramentas como Langfuse, tradução ao vivo com LibreTranslate para suporte multilíngue, filtragem de mensagens tóxicas e muito mais.
? Design responsivo : desfrute de uma experiência perfeita em PCs desktop, laptops e dispositivos móveis.
? Progressive Web App (PWA) para dispositivos móveis : desfrute de uma experiência semelhante a um aplicativo nativo em seu dispositivo móvel com nosso PWA, fornecendo acesso offline em localhost e uma interface de usuário perfeita.
✒️? Suporte completo a Markdown e LaTeX : Eleve sua experiência LLM com recursos abrangentes de Markdown e LaTeX para interação enriquecida.
?? Chamada de voz/vídeo viva-voz : experimente uma comunicação perfeita com recursos integrados de chamada de voz e vídeo viva-voz, permitindo um ambiente de bate-papo mais dinâmico e interativo.
?️ Model Builder : Crie facilmente modelos Ollama por meio da interface da Web. Crie e adicione personagens/agentes personalizados, personalize elementos de bate-papo e importe modelos sem esforço por meio da integração da Open WebUI Community.
? Ferramenta nativa de chamada de função Python : aprimore seus LLMs com suporte integrado ao editor de código no espaço de trabalho de ferramentas. Traga sua própria função (BYOF) simplesmente adicionando suas funções Python puras, permitindo integração perfeita com LLMs.
? Integração RAG local : mergulhe no futuro das interações de bate-papo com suporte inovador à Geração Aumentada de Recuperação (RAG). Este recurso integra perfeitamente as interações com documentos em sua experiência de bate-papo. Você pode carregar documentos diretamente no chat ou adicionar arquivos à sua biblioteca de documentos, acessando-os facilmente usando o comando #
antes de uma consulta.
? Pesquisa na web para RAG : realize pesquisas na web usando provedores como SearXNG
, Google PSE
, Brave Search
, serpstack
, serper
, Serply
, DuckDuckGo
, TavilySearch
e SearchApi
e injete os resultados diretamente em sua experiência de bate-papo.
? Capacidade de navegação na Web : integre sites perfeitamente à sua experiência de bate-papo usando o comando #
seguido de um URL. Este recurso permite incorporar conteúdo da web diretamente em suas conversas, aumentando a riqueza e profundidade de suas interações.
? Integração de geração de imagens : incorpore perfeitamente recursos de geração de imagens usando opções como API AUTOMATIC1111 ou ComfyUI (local) e DALL-E da OpenAI (externo), enriquecendo sua experiência de bate-papo com conteúdo visual dinâmico.
⚙️ Conversas com muitos modelos : interaja sem esforço com vários modelos simultaneamente, aproveitando seus pontos fortes únicos para obter respostas ideais. Aprimore sua experiência aproveitando um conjunto diversificado de modelos em paralelo.
? Controle de acesso baseado em função (RBAC) : Garanta acesso seguro com permissões restritas; apenas indivíduos autorizados podem acessar seu Ollama, e os direitos exclusivos de criação/extração de modelos são reservados aos administradores.
?? Suporte multilíngue : experimente o Open WebUI no seu idioma preferido com nosso suporte de internacionalização (i18n). Junte-se a nós na expansão de nossos idiomas suportados! Estamos buscando colaboradores ativamente!
? Atualizações contínuas : Estamos comprometidos em melhorar o Open WebUI com atualizações regulares, correções e novos recursos.
Quer saber mais sobre os recursos do Open WebUI? Confira nossa documentação Open WebUI para uma visão geral abrangente!
Não se esqueça de explorar nosso projeto irmão, Open WebUI Community, onde você pode descobrir, baixar e explorar Modelfiles personalizados. A Open WebUI Community oferece uma ampla gama de possibilidades interessantes para aprimorar suas interações de bate-papo com o Open WebUI! ?
Open WebUI pode ser instalado usando pip, o instalador do pacote Python. Antes de continuar, certifique-se de usar o Python 3.11 para evitar problemas de compatibilidade.
Instale o Open WebUI : Abra seu terminal e execute o seguinte comando para instalar o Open WebUI:
pip install open-webui
Executando o Open WebUI : Após a instalação, você pode iniciar o Open WebUI executando:
open-webui serve
Isso iniciará o servidor Open WebUI, que você pode acessar em http://localhost:8080
Observação
Observe que, para determinados ambientes Docker, podem ser necessárias configurações adicionais. Se você encontrar algum problema de conexão, nosso guia detalhado sobre documentação Open WebUI está pronto para ajudá-lo.
Aviso
Ao usar o Docker para instalar o Open WebUI, certifique-se de incluir -v open-webui:/app/backend/data
em seu comando Docker. Esta etapa é crucial porque garante que seu banco de dados esteja montado corretamente e evita qualquer perda de dados.
Dica
Se você deseja utilizar Open WebUI com Ollama incluído ou aceleração CUDA, recomendamos utilizar nossas imagens oficiais marcadas com :cuda
ou :ollama
. Para habilitar CUDA, você deve instalar o kit de ferramentas de contêiner Nvidia CUDA em seu sistema Linux/WSL.
Se Ollama estiver no seu computador , use este comando:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Se Ollama estiver em um servidor diferente , use este comando:
Para se conectar ao Ollama em outro servidor, altere OLLAMA_BASE_URL
para a URL do servidor:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Para executar Open WebUI com suporte a GPU Nvidia , use este comando:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Se você estiver usando apenas a API OpenAI , use este comando:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Este método de instalação usa uma única imagem de contêiner que agrupa Open WebUI com Ollama, permitindo uma configuração simplificada por meio de um único comando. Escolha o comando apropriado com base na configuração do seu hardware:
Com suporte para GPU : Utilize os recursos da GPU executando o seguinte comando:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Somente para CPU : se você não estiver usando uma GPU, use este comando:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Ambos os comandos facilitam uma instalação integrada e descomplicada do Open WebUI e do Ollama, garantindo que você possa colocar tudo em funcionamento rapidamente.
Após a instalação, você pode acessar o Open WebUI em http://localhost:3000. Aproveitar! ?
Oferecemos várias alternativas de instalação, incluindo métodos de instalação não nativos do Docker, Docker Compose, Kustomize e Helm. Visite nossa documentação Open WebUI ou junte-se à nossa comunidade Discord para obter orientação abrangente.
Encontrando problemas de conexão? Nossa documentação Open WebUI ajuda você. Para obter mais assistência e para se juntar à nossa vibrante comunidade, visite o Open WebUI Discord.
Se você estiver enfrentando problemas de conexão, geralmente é porque o contêiner docker WebUI não consegue acessar o servidor Ollama em 127.0.0.1:11434 (host.docker.internal:11434) dentro do contêiner. Use o sinalizador --network=host
em seu comando docker para resolver isso. Observe que a porta muda de 3000 para 8080, resultando no link: http://localhost:8080
.
Exemplo de comando do Docker :
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Caso queira atualizar sua instalação local do Docker para a versão mais recente, você pode fazer isso com o Watchtower:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
Na última parte do comando, substitua open-webui
pelo nome do seu contêiner, se for diferente.
Verifique nosso Guia de migração disponível em nossa documentação Open WebUI.
Aviso
A ramificação :dev
contém os recursos e alterações instáveis mais recentes. Use-o por sua própria conta e risco, pois pode conter bugs ou recursos incompletos.
Se quiser experimentar os recursos mais recentes e aceitar instabilidades ocasionais, você pode usar a tag :dev
assim:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
Descubra os próximos recursos em nosso roteiro na documentação do Open WebUI.
Este projeto está licenciado sob a licença MIT - consulte o arquivo LICENSE para obter detalhes. ?
Se você tiver alguma dúvida, sugestão ou precisar de ajuda, abra um problema ou junte-se à nossa comunidade Open WebUI Discord para se conectar conosco! ?
Criado por Timothy Jaeryang Baek - Vamos tornar o Open WebUI ainda mais incrível juntos! ?