biniou 是一个用于多种 GenAI(生成人工智能)的自托管 WebUI。即使没有专用 GPU 并且内存从 8GB 起,您也可以使用 AI 生成多媒体内容并在自己的计算机上使用聊天机器人。可以离线工作(部署并下载所需模型后)。
GNU/Linux [ OpenSUSE 基础 | RHEL 基础 | Debian 基础] • Windows • macOS Intel(实验性) • Docker
文档❓ |陈列室?️
? 2024-11-23 :本周更新>
? 2024-11-16 :本周更新>
? 2024-11-09 :本周更新>
? 2024-11-02 :本周更新>
? 2024-10-26 :本周更新>
已归档更新列表
• 特征
• 先决条件
• 安装
GNU/Linux
OpenSUSE Leap 15.5 / OpenSUSE Tumbleweed
洛基 9.3 / Alma 9.3 / CentOS Stream 9 / Fedora 39
Debian 12 / Ubuntu 22.04.3 / Ubuntu 24.04 / Linux Mint 21.2
Windows 10 / Windows 11
macOS Intel Homebrew 安装
Dockerfile
• CUDA 支持
• 如何使用
• 很高兴知道
• 制作人员
• 执照
文本生成使用:
图像生成和修改使用:
音频生成使用:
视频生成和修改使用:
3D 对象生成使用:
其他特点
最少的硬件:
推荐硬件:
操作系统 :
注意:biniou 支持 Cuda 或 ROCm,但不需要专用 GPU 即可运行。您可以将其安装在虚拟机中。
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh )
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh )
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh )
apt install git pip python3 python3-venv gcc perl make ffmpeg openssl
git clone https://github.com/Woolverine94/biniou.git
cd ./biniou
./install.sh
apt install google-perftools
Windows安装比GNU/Linux有更多的先决条件,并且需要以下软件(将自动安装):
您的操作系统会发生很多变化,这可能会给您的系统带来不需要的行为,具体取决于系统上已安装的软件。
或者
所有安装都是自动进行的,但 Windows UAC 会要求您确认在“先决条件”阶段安装的每个软件。您可以通过以管理员身份运行所选的安装程序来避免这种情况。
install_win.cmd
安装时为 biniou 目录定义自定义路径
请按如下方式进行:
set DEFAULT_BINIOU_DIR="%userprofile%"
以set DEFAULT_BINIOU_DIR="E:datassomedir"
(例如)E:datassomedir
而不是.datassomedir
)E:datassomedir
而不是E:datassomedir
)E:datassomedirbiniou
),因为 biniou 目录将由 git clone 命令创建为您的操作系统安装Homebrew
安装所需的自制“瓶子”:
brew install git python3 gcc gcc@11 perl make ffmpeg openssl
python3 -m pip install virtualenv
git clone https://github.com/Woolverine94/biniou.git
cd ./biniou
./install.sh
这些说明假设您已经配置好并且可以工作的 docker 环境。
docker build -t biniou https://github.com/Woolverine94/biniou.git
或者,对于 CUDA 支持:
docker build -t biniou https://raw.githubusercontent.com/Woolverine94/biniou/main/CUDA/Dockerfile
docker run -it --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
或者,对于 CUDA 支持:
docker run -it --gpus all --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
注意:为了节省存储空间,前面的容器启动命令为所有 biniou 容器定义了公共共享卷,并确保容器在 OOM 崩溃时自动重新启动。如果您不想要这些行为,请删除
--restart
和-v
参数。
biniou 本身仅支持 cpu,以确保与各种硬件的兼容性,但您可以通过 Nvidia CUDA(如果您有功能性 CUDA 12.1 环境)或 AMD ROCm(如果您有功能性 ROCm 5.6 环境)轻松激活 CUDA 支持通过在 WebUI 控制模块中选择要激活的优化类型(CPU、CUDA 或适用于 Linux 的 ROCm)。
目前,除了 Chatbot、Llava 和 faceswap 模块之外的所有模块都可以从 CUDA 优化中受益。
cd /home/ $USER /biniou
./webui.sh
双击 biniou 目录(C:Users%username%biniou)中的webui.cmd 。当UAC询问时,根据您的网络类型配置防火墙以授权访问webui
注意:在 Windows 11 上首次启动可能会非常慢(与其他操作系统相比)。
通过 url访问webui:
https://127.0.0.1:7860 或 https://127.0.0.1:7860/?__theme=dark 用于深色主题(推荐)
您还可以从同一 LAN/Wifi 网络上的任何设备(包括智能手机)访问 biniou,只需将 url 中的 127.0.0.1 替换为 biniou 主机 IP 地址即可。
在终端中使用键盘快捷键 CTRL+C退出
使用 WebUI 控件更新选项更新此应用程序(biniou + python 虚拟环境)。
崩溃的最常见原因是主机内存不足。症状是 biniou 程序关闭并返回/关闭终端,没有特定的错误消息。您可以使用具有 8GB RAM 的 biniou,但建议至少使用 16GB 以避免 OOM(内存不足)错误。
biniou使用了很多不同的AI模型,这需要大量的空间:如果你想使用biniou中的所有模块,仅每个模块的默认模型就需要大约200GB的磁盘空间。模型会在每个模块首次运行时或当您在模块中选择新模型并生成内容时下载。模型存储在 biniou 安装的目录 /models 中。可以删除未使用的模型以节省一些空间。
...因此,您将需要快速的互联网访问来下载模型。
biniou 文件夹的 /outputs 目录中提供了生成的每个内容的备份。
biniou 本身仅依赖 CPU 来进行所有操作。它使用特定的仅 CPU 版本的 PyTorch。结果是与各种硬件具有更好的兼容性,但性能下降。根据您的硬件,速度可能会很慢。请参阅此处了解 Nvidia CUDA 支持和 AMD ROCm 实验支持(仅限 GNU/Linux)。
选择默认设置以允许在低端计算机上生成内容,并具有最佳的性能/质量比。如果您的配置高于最低设置,您可以尝试使用其他模型,增加媒体尺寸或持续时间,修改推理参数或其他设置(例如图像的标记合并)以获得更好质量的内容。
biniou 根据 GNU GPL3 获得许可,但 biniou 中使用的每个模型都有自己的许可证。请查阅每个模型许可证,了解您可以对模型执行哪些操作和不能执行哪些操作。对于每个模型,您可以在关联模块的“关于”部分找到该模型的 Huggingface 页面的链接。
不要抱太大期望:biniou 正处于开发的早期阶段,其中使用的大多数开源软件都在开发中(有些仍处于实验阶段)。
每个 biniou 模块都提供 2 个手风琴元素关于和设置:
该应用程序使用以下软件和技术:
StableDiffusionPipeline
的模块StableDiffusionPipeline
的模块的令牌合并...以及它们所有的依赖项
GNU 通用公共许可证 v3.0
GitHub @Woolverine94 ·