Hogar
biniou es una webui autohospedada para varios tipos de GenAI (inteligencia artificial generativa). Puedes generar contenidos multimedia con IA y utilizar un chatbot en tu propia computadora, incluso sin GPU dedicada y a partir de 8GB de RAM. Puede funcionar sin conexión (una vez implementado y descargado los modelos requeridos).
GNU/Linux [Base OpenSUSE | Base RHEL | Base de Debian ] • Windows • macOS Intel (experimental) • Docker
Documentación ❓ | Sala de exposición ?️
Actualizaciones
? 2024-11-23 : Actualizaciones de esta semana >
- Agregue soporte para el modelo Chatbot prithivMLmods/Llama-Doctor-3.2-3B-Instruct-GGUF.
- Agregue soporte para los modelos Flux LoRA: extrañozonehf/Flux-Super-Realism-LoRA, extrañozonehf/Flux-Midjourney-Mix-LoRA, Norod78/Flux_1_Dev_LoRA_Paper-Cutout-Style, prithivMLmods/Knitted-Character-Flux-LoRA, Shakker-Labs/FLUX.1-dev-LoRA-Children-Simple-Sketch, renderartist/retrocomicflux, prithivMLmods/Seamless-Pattern-Design-Flux-LoRA, alvdansen/haunted_linework_flux, prithivMLmods/Flux.1-Dev-Poster-HQ- LoRA, Grohv/randart2_lora, renderartist/retroadflux, prithivMLmods/Flux.1-Dev-Realtime-Toon-Mix y prithivMLmods/Flux-Product-Ad-Backdrop.
? 2024-11-16 : Actualizaciones de esta semana >
- Agregue soporte para los modelos de Chatbot bartowski/SuperNova-Medius-GGUF y bartowski/OpenCoder-8B-Instruct-GGUF.
- Agregue soporte para los modelos Flux LoRA Shakker-Labs/FLUX.1-dev-LoRA-Text-Poster, dataautogpt3/FLUX-SyntheticAnime, prithivMLmods/Canopus-Pixar-3D-Flux-LoRA, prithivMLmods/Flux-Dev-Real-Anime- lora, glif-loradex-trainer/shipley_flux_dev_AlicesAdventuresInWonderland_v2, prithivMLmods/Ton618-Only-Stickers-Flux-LoRA, markury/surrealidescent, FounderFeed/gta-style-lora, Keltezaa/movie-poster-ce-sdxl-flux, FounderFeed/MidjourneyMeetFlux y dooart/flux-lora-vintage-tarot.
- Agregue soporte para los modelos SD 3.5 Large LoRA nerijs/pixel-art-3.5L.
- Agregue soporte preliminar para Flux al módulo Adaptador IP.
- Agregue soporte preliminar para Flux al módulo ControlNet (actualmente solo funcionan astuto y profundo).
- Optimizaciones y correcciones de errores.
? 2024-11-09 : Actualizaciones de esta semana >
- Agregue soporte para los modelos de Chatbot bartowski/SmolLM2-1.7B-Instruct-GGUF, bartowski/cybertron-v4-qw7B-MGS-GGUF y bartowski/OpenChat-3.5-0106_32K-PoSE-GGUF.
- Actualización del modelo Chatbot Llama-3.2-3B-Instruct-GGUF a bartowski/Llama-3.2-3B-Instruct-uncensored-GGUF.
- Agregue soporte para muchos modelos Flux LoRA. El más destacable es el rápido modelo LoRA Lingyuzhou/Hyper_Flux.1_Dev_4_step_Lora, que permite inferencias en 4 pasos. Definitivamente vale la pena intentarlo si estás usando Flux.
- Agregue soporte para los modelos Flux y Flux LoRA para el módulo img2img.
- Agregue soporte para modelos SD 3.5 Medium LoRA para difusión estable y módulo img2img.
- Agregue categorías a los modelos Flux LoRA.
- Corrección de errores para Docker cuando se usa con varios discos duros y solución de problemas en la configuración del módulo img2img.
? 2024-11-02 : Actualizaciones de esta semana >
- Agregue soporte para los modelos SD 3.5 ariG23498/sd-3.5-merged y adamo1139/stable-diffusion-3.5-medium-ungated a los módulos Stable Diffusion e img2img.
- Agregue soporte para el modelo Chatbot bartowski/granite-3.0-8b-instruct-GGUF.
- Agregue soporte para los modelos Flux LoRA dvyio/flux-lora-seventies-photograph, Bootoshi/retroanime, XLabs-AI/flux-RealismLora y prithivMLmods/Ton618-Tarot-Cards-Flux-LoRA (¡este último ofrece resultados impresionantes!).
- Agregue soporte para los modelos SD 3.5 LoRA alvarobartt/ghibli-characters-sd3.5-lora, reverentelusarca/ancient-style-sd35 y Wadaka/NewYorkerComic_Style.
- Agregue soporte para modelos SD 3.5 al módulo img2img.
? 2024-10-26 : Actualizaciones de esta semana >
- Como se anunció anteriormente, el modelo Flux Freepik/flux.1-lite-8B-alpha y el modelo SD 3.5 adamo1139/stable-diffusion-3.5-large-turbo-ungated ahora son compatibles con el módulo Stable Diffusion. El soporte se ampliará a todos los módulos elegibles. Agregue también soporte para LoRA en estos modelos.
- Agregue soporte para el modelo SDXL dataautogpt3/Proteus-v0.6 a todos los módulos basados en Stable Diffusion.
- Agregue soporte para los modelos Chatbot anthracite-org/magnum-v4-9b-gguf y bartowski/Ministral-8B-Instruct-2410-GGUF.
- Agregue soporte para el modelo SDXL LoRA KappaNeuro/moebius-jean-giraud-style.
Lista de actualizaciones archivadas
Menú
• Características
• Requisitos previos
• Instalación
GNU/Linux
OpenSUSE Leap 15.5 / OpenSUSE Tumbleweed
Rocky 9.3 / Alma 9.3 / CentOS Stream 9 / Fedora 39
Debian 12/Ubuntu 22.04.3/Ubuntu 24.04/Linux Mint 21.2
Windows 10/Windows 11
Instalación de macOS Intel Homebrew
archivo acoplable
• Soporte CUDA
• Cómo utilizar
• Es bueno saberlo
• Créditos
• Licencia
Características
Generación de texto usando:
- ✍️ módulo de chatbot basado en llama-cpp (utiliza modelos .gguf)
- ?️ Módulo de chatbot multimodal Llava (utiliza modelos .gguf)
- ?️ Módulo de subtítulos de imágenes de Microsoft GIT
- ? Módulo Whisper de voz a texto
- módulo de traducción nllb (200 idiomas)
- Generador de mensajes (requiere más de 16 GB de RAM para el tipo de salida ChatGPT)
Generación y modificación de imágenes usando:
- ?️ Módulo de difusión estable
- ?️ Módulo Kandinsky (requiere más de 16 GB de RAM)
- ?️Módulo Modelos de consistencia latente
- ?️ Mini módulo de mitad de viaje
- ?️Módulo PixArt-Alpha
- ?️ Módulo Img2img de difusión estable
- ?️ Módulo adaptador IP
- ?️ Módulo de variación de imagen de difusión estable (requiere más de 16 GB de RAM)
- ?️ Instruir al módulo Pix2Pix
- ?️Módulo MagicMix
- ?️ Módulo de pintura de difusión estable
- ?️ Módulo Fantasy Studio Paint por ejemplo (requiere más de 16 GB de RAM)
- ?️ Módulo de pintura de difusión estable (requiere más de 16 GB de RAM)
- ?️ Módulo ControlNet de difusión estable
- ?️ Módulo de fotomatón
- ? Módulo de intercambio de caras Insight Face
- ? Módulo escalador Real ESRGAN
- ?Módulo de restauración facial GFPGAN
Generación de audio usando:
- ? Módulo MusicGen
- ? Módulo MusicGen Melody (requiere más de 16 GB de RAM)
- ? Módulo MusicLDM
- ? Módulo Audiogen (requiere más de 16 GB de RAM)
- ? Módulo Harmonai
- Módulo de corteza
Generación y modificación de video usando:
- ? Módulo Modelscope (requiere más de 16 GB de RAM)
- ? Módulo Text2Video-Zero
- ? Módulo AnimateDiff (requiere más de 16 GB de RAM)
- ? Módulo de difusión de vídeo estable (requiere más de 16 GB de RAM)
- ?️ Módulo Video Instruct-Pix2Pix (requiere más de 16 GB de RAM)
Generación de objetos 3D usando:
- ? Módulo Shap-E txt2shape
- ? Módulo Shap-E img2shape (requiere más de 16 GB de RAM)
Otras características
- Instalación de Zeroconf a través de instaladores con un solo clic o Windows exe.
- Fácil de usar: todo lo necesario para ejecutar biniou se instala automáticamente, ya sea en el momento de la instalación o en el primer uso.
- WebUI en inglés, francés, chino (tradicional).
- Fácil gestión a través de un panel de control directamente dentro de webui: actualice, reinicie, apague, active la autenticación, controle el acceso a la red o comparta su instancia en línea con un solo clic.
- Fácil gestión de modelos a través de una interfaz sencilla.
- Comunicación entre módulos: enviar una salida como entrada a otro módulo
- Desarrollado por ? Abrazando cara y grado
- Multiplataforma: GNU/Linux, Windows 10/11 y macOS (experimental, vía homebrew)
- Conveniente Dockerfile para instancias en la nube
- Configuraciones de generación guardadas como metadatos en cada contenido.
- Soporte para CUDA (ver soporte CUDA)
- Soporte experimental para ROCm (ver aquí)
- Soporte para Difusión Estable SD-1.5, SD-2.1, SD-Turbo, SDXL, SDXL-Turbo, SDXL-Lightning, Hyper-SD, Difusión Estable 3, LCM, VegaRT, Segmind, Playground-v2, Koala, Pixart-Alpha, Pixart-Sigma, Kandinsky y modelos compatibles, a través de una lista de modelos integrada o archivos .safetensors independientes
- Soporte para modelos LoRA (SD 1.5, SDXL y SD3)
- Soporte para inversión textual
- Admite optimizaciones llama-cpp-python CUDA, OpenBLAS, OpenCL BLAS, ROCm y Vulkan a través de una configuración simple
- Soporte para Llama/2/3, Mistral, Mixtral y modelos cuantificados GGUF compatibles, a través de una lista de modelos incorporada o archivos .gguf independientes.
- Fácil integración de copiar y pegar para los modelos cuantificados de TheBloke GGUF.
Requisitos previos
Hardware mínimo:
- CPU de 64 bits (SÓLO arquitectura AMD64)
- 8 GB de RAM
- Requisitos de almacenamiento:
- para GNU/Linux: al menos 20GB para instalación sin modelos.
- para Windows: al menos 30 GB para instalación sin modelos.
- para macOS: al menos ??GB para instalación sin modelos.
- Tipo de almacenamiento: HDD
- Acceso a Internet (requerido sólo para la instalación y descarga de modelos): acceso a Internet de fibra óptica con ancho de banda ilimitado
Hardware recomendado:
- CPU masivamente multinúcleo de 64 bits (SOLO arquitectura AMD64) y una GPU compatible con CUDA o ROCm
- Más de 16 GB de RAM
- Requisitos de almacenamiento:
- para GNU/Linux: alrededor de 200 GB para la instalación, incluidos todos los modelos predeterminados.
- para Windows: alrededor de 200 GB para la instalación, incluidos todos los modelos predeterminados.
- para macOS: alrededor de GB para la instalación, incluidos todos los modelos predeterminados.
- Tipo de almacenamiento: SSD Nvme
- Acceso a Internet (requerido sólo para la instalación y descarga de modelos): acceso a Internet de fibra óptica con ancho de banda ilimitado
Sistema operativo :
- un sistema operativo de 64 bits:
- Debian 12
- Ubuntu 22.04.3/24.04
- Linux menta 21.2+ / 22
- Rocoso 9.3
- Alma 9.3
- CentOS corriente 9
- sombrero 39
- OpenSUSE salto 15.5
- Planta rodadora OpenSUSE
- Ventanas 10 22H2
- Ventanas 11 22H2
- MacOS???
Nota: biniou admite Cuda o ROCm pero no requiere una GPU dedicada para ejecutarse. Puedes instalarlo en una máquina virtual.
Instalación
GNU/Linux
OpenSUSE Leap 15.5 / OpenSUSE Tumbleweed
Instalador con un solo clic:
- Copie/pegue y ejecute el siguiente comando en una terminal:
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh )
Rocky 9.3 / Alma 9.3 / CentOS Stream 9 / Fedora 39
Instalador con un solo clic:
- Copie/pegue y ejecute el siguiente comando en una terminal:
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh )
Debian 12 / Ubuntu 22.04.3 / Ubuntu 24.04 / Linux Mint 21.2+
Instalador con un solo clic:
- Copie/pegue y ejecute el siguiente comando en una terminal:
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh )
Instalación manual:
- Instale los requisitos previos como root:
apt install git pip python3 python3-venv gcc perl make ffmpeg openssl
- Clona este repositorio como usuario:
git clone https://github.com/Woolverine94/biniou.git
- Inicie el instalador:
- (opcional, pero muy recomendado) Instale TCMalloc como root para optimizar la administración de la memoria:
apt install google-perftools
Windows 10/Windows 11
La instalación de Windows tiene más requisitos previos que la de GNU/Linux y requiere el siguiente software (que se instalará automáticamente):
- git
- Python 3.11 (y específicamente la versión 3.11)
- AbiertoSSL
- Herramientas de compilación de Visual Studio
- SDK de Windows 10/11
- Vcreditista
- ffmpeg
- ... y todas sus dependencias.
Son muchos cambios en su sistema operativo y esto podría generar comportamientos no deseados en su sistema, dependiendo del software que ya esté instalado en él.
️ Realmente deberías hacer una copia de seguridad de tu sistema y tus datos antes de comenzar el proceso de instalación. ️
- Descargar y ejecutar : biniou_netinstall.exe
O
- Descargue y ejecute : install_win.cmd (haga clic derecho en el enlace y seleccione "Guardar destino/enlace como ..." para descargar)
Toda la instalación está automatizada, pero Windows UAC le pedirá confirmación para cada software instalado durante la fase de "requisitos previos". Puedes evitar esto ejecutando el instalador elegido como administrador.
️ Desde la confirmación 8d2537b, los usuarios de Windows ahora pueden definir una ruta personalizada para el directorio biniou, al instalar con install_win.cmd
️
Proceda de la siguiente manera:
- Descargue y edite install_win.cmd
- Modifique
set DEFAULT_BINIOU_DIR="%userprofile%"
para set DEFAULT_BINIOU_DIR="E:datassomedir"
(por ejemplo) - Utilice únicamente la ruta absoluta (por ejemplo:
E:datassomedir
y no .datassomedir
) - No agregue una barra diagonal (por ejemplo:
E:datassomedir
y no E:datassomedir
) - No agregue un sufijo "biniou" a su ruta (por ejemplo:
E:datassomedirbiniou
), ya que el directorio biniou será creado por el comando git clone - Guarde y ejecute install_win.cmd
Instalación de macOS Intel Homebrew
️ La instalación casera es teóricamente compatible con macOS Intel, pero no ha sido probada. Úselo bajo su propio riesgo. También tenga en cuenta que biniou actualmente es incompatible con el silicio de Apple. Cualquier comentario sobre este procedimiento a través de discusiones o un ticket de problema será muy apreciado. ️
️ Actualización 09/01/2024: Gracias a @lepicodon, hay una solución para los usuarios de Apple Silicon: pueden instalar biniou en una máquina virtual usando OrbStack. Consulte este comentario para obtener explicaciones. ️
Instala Homebrew para tu sistema operativo
Instale las "botellas" de cerveza casera necesarias:
brew install git python3 gcc gcc@11 perl make ffmpeg openssl
- Instalar Python virtualenv:
python3 -m pip install virtualenv
- Clona este repositorio como usuario:
git clone https://github.com/Woolverine94/biniou.git
- Inicie el instalador:
archivo acoplable
Estas instrucciones asumen que ya tiene un entorno acoplable configurado y en funcionamiento.
- Crea la imagen de la ventana acoplable:
docker build -t biniou https://github.com/Woolverine94/biniou.git
o, para soporte CUDA:
docker build -t biniou https://raw.githubusercontent.com/Woolverine94/biniou/main/CUDA/Dockerfile
- Inicie el contenedor:
docker run -it --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
o, para soporte CUDA:
docker run -it --gpus all --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
- Acceda a la webui mediante la URL:
https://127.0.0.1:7860 o https://127.0.0.1:7860/?__theme=dark para tema oscuro (recomendado)
... o reemplaza 127.0.0.1 por la ip de tu contenedor
Nota: para ahorrar espacio de almacenamiento, el comando de lanzamiento del contenedor anterior define volúmenes compartidos comunes para todos los contenedores biniou y garantiza que el contenedor se reinicie automáticamente en caso de falla de OOM. Elimine los argumentos --restart
y -v
si no desea estos comportamientos.
Soporte CUDA
biniou es nativo solo para CPU, para garantizar la compatibilidad con una amplia gama de hardware, pero puede activar fácilmente la compatibilidad con CUDA a través de Nvidia CUDA (si tiene un entorno CUDA 12.1 funcional) o AMD ROCm (si tiene un entorno ROCm 5.6 funcional) seleccionando el tipo de optimización a activar (CPU, CUDA o ROCm para Linux), en el módulo de control WebUI.
Actualmente, todos los módulos, excepto Chatbot, Llava y faceswap, podrían beneficiarse de la optimización CUDA.
Cómo utilizar
- Inicie ejecutando desde el directorio biniou:
cd /home/ $USER /biniou
./webui.sh
Haga doble clic en webui.cmd en el directorio biniou (C:Users%username%biniou). Cuando la UAC lo solicite, configure el firewall de acuerdo con su tipo de red para autorizar el acceso a la webui
Nota: El primer inicio puede ser muy lento en Windows 11 (en comparación con otros sistemas operativos).
Acceda a la webui mediante la URL:
https://127.0.0.1:7860 o https://127.0.0.1:7860/?__theme=dark para tema oscuro (recomendado)
También puede acceder a biniou desde cualquier dispositivo (incluidos teléfonos inteligentes) en la misma red LAN/Wifi reemplazando 127.0.0.1 en la URL con la dirección IP del host de biniou.
Salga usando el método abreviado de teclado CTRL+C en la Terminal
Actualice esta aplicación (entorno virtual biniou + python) utilizando las opciones de actualización del control WebUI.
Es bueno saberlo
La causa más frecuente de fallo es la falta de memoria en el host. El síntoma es que el programa biniou se cierra y regresa/cierra el terminal sin un mensaje de error específico. Puedes usar biniou con 8 GB de RAM, pero se recomiendan al menos 16 GB para evitar el error OOM (memoria insuficiente).
biniou usa muchos modelos de IA diferentes, lo que requiere mucho espacio: si desea usar todos los módulos en biniou, necesitará alrededor de 200 GB de espacio en disco solo para el modelo predeterminado de cada módulo. Los modelos se descargan en la primera ejecución de cada módulo o cuando selecciona un nuevo modelo en un módulo y genera contenido. Los modelos se almacenan en el directorio /modelos de la instalación de biniou. Los modelos no utilizados se pueden eliminar para ahorrar espacio.
... en consecuencia, necesitarás un acceso rápido a Internet para descargar modelos.
Una copia de seguridad de cada contenido generado está disponible dentro del directorio /outputs de la carpeta biniou.
biniou de forma nativa solo depende de la CPU para todas las operaciones. Utiliza una versión específica de PyTorch solo para CPU. El resultado es una mejor compatibilidad con una amplia gama de hardware, pero un rendimiento degradado. Dependiendo de su hardware, espere lentitud. Consulte aquí para obtener compatibilidad con Nvidia CUDA y compatibilidad experimental con AMD ROCm (solo GNU/Linux).
La configuración predeterminada se selecciona para permitir la generación de contenidos en computadoras de gama baja, con la mejor relación rendimiento/calidad. Si tiene una configuración por encima de la configuración mínima, puede intentar usar otros modelos, aumentar las dimensiones o la duración de los medios, modificar los parámetros de inferencia u otras configuraciones (como la combinación de tokens para imágenes) para obtener contenidos de mejor calidad.
biniou tiene licencia GNU GPL3, pero cada modelo utilizado en biniou tiene su propia licencia. Consulte la licencia de cada modelo para saber qué puede y qué no puede hacer con los modelos. Para cada modelo, puede encontrar un enlace a la página huggingface del modelo en la sección "Acerca de" del módulo asociado.
No tenga demasiadas expectativas: biniou se encuentra en una etapa temprana de desarrollo, y la mayor parte del software de código abierto utilizado en él está en desarrollo (algunos todavía son experimentales).
Cada módulo biniou ofrece 2 elementos de acordeón Acerca de y Configuración :
- Acerca de es una función de ayuda rápida que describe el módulo y brinda instrucciones y consejos sobre cómo usarlo.
- Configuración es una configuración del panel específica del módulo que le permite configurar los parámetros de generación.
Créditos
Esta aplicación utiliza los siguientes softwares y tecnologías:
- ? Huggingface: Bibliotecas de difusores y transformadores y casi todos los modelos generativos.
- Gradio: webUI
- llama-cpp-python: enlaces de Python para llama-cpp
- llama
- BakLLava
- Microsoft GIT: Imagen2texto
- Susurro: discurso2texto
- traducción nllb: traducción de idiomas
- Difusión estable: txt2img, img2img, variación de imagen, inpaint, ControlNet, Text2Video-Zero, img2vid
- Kandinsky: txt2img
- Modelos de consistencia latente: txt2img
- PixArt-Alfa : PixArt-Alfa
- Adaptador IP : Adaptador IP img2img
- Instruir a pix2pix: pix2pix
- Mezcla mágica: Mezcla mágica
- Pintura de Fantasy Studio por ejemplo: paintbyex
- Modelos auxiliares de Controlnet: modelos preliminares para el módulo ControlNet
- Adaptador IP FaceID : Modelo adaptador para módulo Photobooth
- Modelo de adaptador Photomaker para módulo Photobooth
- Insight Face: intercambio de caras
- Real ESRGAN: escalador
- GFPGAN: restauración facial
- Audiocraft: musicgen, melodía musicgen, audiogen
- MúsicaLDM: MúsicaLDM
- armonía: armonía
- Ladrar: texto2speech
- Modelscope síntesis de texto a video: txt2vid
- AnimateLCM: txt2vid
- Abrir AI Shap-E: txt2shape, img2shape
- compel: Mejora rápida para varios módulos basados en
StableDiffusionPipeline
- tomesd: Fusión de tokens para varios módulos basados en
StableDiffusionPipeline
- Pitón
- PyTorch
- git
- ffmpeg
... y todas sus dependencias
Licencia
Licencia pública general GNU v3.0
GitHub@Woolverine94 ·