Open WebUI es una WebUI autohospedada extensible, rica en funciones y fácil de usar, diseñada para funcionar completamente sin conexión. Admite varios corredores de LLM, incluidas Ollama y API compatibles con OpenAI. Para obtener más información, asegúrese de consultar nuestra documentación de Open WebUI.
? Configuración sencilla : instálelo sin problemas usando Docker o Kubernetes (kubectl, kustomize o helm) para una experiencia sin complicaciones con soporte para imágenes etiquetadas :ollama
y :cuda
.
? Integración de API de Ollama/OpenAI : integre sin esfuerzo API compatibles con OpenAI para conversaciones versátiles junto con los modelos de Ollama. Personalice la URL de la API de OpenAI para vincularla con LMStudio, GroqCloud, Mistral, OpenRouter y más .
? Pipelines, compatibilidad con el complemento Open WebUI : integre perfectamente la lógica personalizada y las bibliotecas de Python en Open WebUI utilizando Pipelines Plugin Framework. Inicie su instancia de Pipelines, configure la URL de OpenAI en la URL de Pipelines y explore infinitas posibilidades. Los ejemplos incluyen llamadas a funciones , limitación de velocidad de usuario para controlar el acceso, monitoreo de uso con herramientas como Langfuse, traducción en vivo con LibreTranslate para soporte multilingüe, filtrado de mensajes tóxicos y mucho más.
? Diseño responsivo : disfrute de una experiencia perfecta en PC de escritorio, portátiles y dispositivos móviles.
? Aplicación web progresiva (PWA) para dispositivos móviles : disfrute de una experiencia similar a una aplicación nativa en su dispositivo móvil con nuestra PWA, que brinda acceso sin conexión en localhost y una interfaz de usuario perfecta.
✒️? Compatibilidad total con Markdown y LaTeX : mejore su experiencia LLM con capacidades integrales de Markdown y LaTeX para una interacción enriquecida.
?? Llamada de voz/video con manos libres : experimente una comunicación fluida con funciones integradas de llamada de voz y video con manos libres, lo que permite un entorno de chat más dinámico e interactivo.
?️ Model Builder : cree fácilmente modelos de Ollama a través de la interfaz de usuario web. Cree y agregue personajes/agentes personalizados, personalice elementos de chat e importe modelos sin esfuerzo a través de la integración de Open WebUI Community.
? Herramienta de llamada de funciones nativa de Python : mejore sus LLM con soporte de editor de código integrado en el espacio de trabajo de herramientas. Traiga su propia función (BYOF) simplemente agregando sus funciones puras de Python, lo que permite una integración perfecta con los LLM.
? Integración de RAG local : Sumérgete en el futuro de las interacciones de chat con el innovador soporte de generación aumentada de recuperación (RAG). Esta característica integra perfectamente las interacciones de documentos en su experiencia de chat. Puede cargar documentos directamente en el chat o agregar archivos a su biblioteca de documentos, accediendo a ellos sin esfuerzo usando el comando #
antes de una consulta.
? Búsqueda web para RAG : realice búsquedas web utilizando proveedores como SearXNG
, Google PSE
, Brave Search
, serpstack
, serper
, Serply
, DuckDuckGo
, TavilySearch
y SearchApi
e inyecte los resultados directamente en su experiencia de chat.
? Capacidad de navegación web : integre fácilmente sitios web en su experiencia de chat utilizando el comando #
seguido de una URL. Esta característica le permite incorporar contenido web directamente en sus conversaciones, mejorando la riqueza y profundidad de sus interacciones.
? Integración de generación de imágenes : incorpore perfectamente capacidades de generación de imágenes utilizando opciones como la API AUTOMATIC1111 o ComfyUI (local) y DALL-E de OpenAI (externo), enriqueciendo su experiencia de chat con contenido visual dinámico.
⚙️ Conversaciones con muchos modelos : interactúe sin esfuerzo con varios modelos simultáneamente, aprovechando sus fortalezas únicas para obtener respuestas óptimas. Mejore su experiencia aprovechando un conjunto diverso de modelos en paralelo.
? Control de acceso basado en roles (RBAC) : garantice un acceso seguro con permisos restringidos; Sólo las personas autorizadas pueden acceder a su Ollama, y los derechos exclusivos de creación/extracción de modelos están reservados para los administradores.
?? Soporte multilingüe : experimente Open WebUI en su idioma preferido con nuestro soporte de internacionalización (i18n). ¡Únase a nosotros para ampliar nuestros idiomas admitidos! ¡Estamos buscando activamente colaboradores!
? Actualizaciones continuas : estamos comprometidos a mejorar Open WebUI con actualizaciones periódicas, correcciones y nuevas funciones.
¿Quiere obtener más información sobre las funciones de Open WebUI? ¡Consulte nuestra documentación de Open WebUI para obtener una descripción general completa!
No olvide explorar nuestro proyecto hermano, Open WebUI Community, donde puede descubrir, descargar y explorar Modelfiles personalizados. ¡Open WebUI Community ofrece una amplia gama de interesantes posibilidades para mejorar sus interacciones de chat con Open WebUI! ?
Open WebUI se puede instalar usando pip, el instalador del paquete Python. Antes de continuar, asegúrese de utilizar Python 3.11 para evitar problemas de compatibilidad.
Instale Open WebUI : abra su terminal y ejecute el siguiente comando para instalar Open WebUI:
pip install open-webui
Ejecutando Open WebUI : Después de la instalación, puede iniciar Open WebUI ejecutando:
open-webui serve
Esto iniciará el servidor Open WebUI, al que puede acceder en http://localhost:8080
Nota
Tenga en cuenta que para ciertos entornos Docker, es posible que se necesiten configuraciones adicionales. Si tiene algún problema de conexión, nuestra guía detallada sobre la documentación de Open WebUI está lista para ayudarlo.
Advertencia
Cuando utilice Docker para instalar Open WebUI, asegúrese de incluir -v open-webui:/app/backend/data
en su comando Docker. Este paso es crucial ya que garantiza que su base de datos esté montada correctamente y evita cualquier pérdida de datos.
Consejo
Si desea utilizar Open WebUI con Ollama incluido o aceleración CUDA, le recomendamos utilizar nuestras imágenes oficiales etiquetadas con :cuda
o :ollama
. Para habilitar CUDA, debe instalar el kit de herramientas del contenedor Nvidia CUDA en su sistema Linux/WSL.
Si Ollama está en tu computadora , usa este comando:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Si Ollama está en un servidor diferente , use este comando:
Para conectarse a Ollama en otro servidor, cambie OLLAMA_BASE_URL
a la URL del servidor:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Para ejecutar Open WebUI con soporte para GPU Nvidia , use este comando:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Si solo estás usando la API OpenAI , usa este comando:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Este método de instalación utiliza una única imagen de contenedor que incluye Open WebUI con Ollama, lo que permite una configuración optimizada mediante un solo comando. Elija el comando apropiado según la configuración de su hardware:
Con soporte de GPU : utilice los recursos de GPU ejecutando el siguiente comando:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Solo para CPU : si no estás usando una GPU, usa este comando en su lugar:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Ambos comandos facilitan una instalación integrada y sin complicaciones de Open WebUI y Ollama, lo que garantiza que pueda tener todo en funcionamiento rápidamente.
Después de la instalación, puede acceder a Open WebUI en http://localhost:3000. ¡Disfrutar! ?
Ofrecemos varias alternativas de instalación, incluidos métodos de instalación nativos que no son de Docker, Docker Compose, Kustomize y Helm. Visite nuestra documentación de Open WebUI o únase a nuestra comunidad de Discord para obtener orientación completa.
¿Tienes problemas de conexión? Nuestra documentación de Open WebUI lo tiene cubierto. Para obtener más ayuda y unirse a nuestra vibrante comunidad, visite Open WebUI Discord.
Si tiene problemas de conexión, a menudo se debe a que el contenedor acoplable WebUI no puede comunicarse con el servidor Ollama en 127.0.0.1:11434 (host.docker.internal:11434) dentro del contenedor. Utilice el indicador --network=host
en su comando Docker para resolver esto. Tenga en cuenta que el puerto cambia de 3000 a 8080, lo que genera el enlace: http://localhost:8080
.
Ejemplo de comando Docker :
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
En caso de que quieras actualizar tu instalación local de Docker a la última versión, puedes hacerlo con Watchtower:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
En la última parte del comando, reemplace open-webui
con el nombre de su contenedor si es diferente.
Consulte nuestra Guía de migración disponible en nuestra documentación de Open WebUI.
Advertencia
La rama :dev
contiene las últimas características y cambios inestables. Úselo bajo su propia responsabilidad, ya que puede tener errores o funciones incompletas.
Si desea probar las últimas funciones de vanguardia y está de acuerdo con la inestabilidad ocasional, puede usar la etiqueta :dev
de esta manera:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
Descubra las próximas funciones en nuestra hoja de ruta en la documentación de Open WebUI.
Este proyecto tiene la licencia MIT; consulte el archivo de LICENCIA para obtener más detalles. ?
Si tiene alguna pregunta, sugerencia o necesita ayuda, abra un problema o únase a nuestra comunidad Open WebUI Discord para conectarse con nosotros. ?
Creado por Timothy Jaeryang Baek: ¡juntos hagamos que Open WebUI sea aún más sorprendente! ?