稳定扩散的 Web 界面,使用 Gradio 库实现。
带图像的详细功能展示:
原始 txt2img 和 img2img 模式
一键安装并运行脚本(但仍然必须安装python和git)
外画
修复
彩色素描
提示矩阵
稳定 扩散 高档
注意,指定模型应该更多关注的文本部分
穿着((tuxedo))
的男人 - 会更加关注燕尾服
a man in a (tuxedo:1.21)
- 替代语法
选择文本并按Ctrl+Up
或Ctrl+Down
(如果您使用的是 MacOS,则按Command+Up
或Command+Down
)以自动调整对所选文本的关注(由匿名用户贡献的代码)
Loopback,多次运行img2img处理
X/Y/Z 图,一种绘制具有不同参数的 3 维图像图的方法
文本倒装
拥有任意数量的嵌入并使用您喜欢的任何名称
使用每个标记具有不同数量向量的多个嵌入
适用于半精度浮点数
在 8GB 上训练嵌入(还有 6GB 工作的报告)
附加选项卡包含:
GFPGAN,修复人脸的神经网络
CodeFormer,人脸修复工具,作为 GFPGAN 的替代品
RealESRGAN,神经网络升级器
ESRGAN,具有许多第三方模型的神经网络升级器
SwinIR 和 Swin2SR(参见此处),神经网络升级器
LDSR,潜在扩散超分辨率升级
调整宽高比选项
采样方法选择
调整采样器 eta 值(噪声乘数)
更高级的噪音设置选项
随时中断处理
4GB 显卡支持(也有 2GB 工作报告)
批次正确种子
实时提示令牌长度验证
发电参数
用于生成图像的参数与该图像一起保存
对于 PNG,在 PNG 块中;对于 JPEG,在 EXIF 中
可以将图像拖到PNG信息选项卡以恢复生成参数并自动将其复制到UI中
可以在设置中禁用
将图像/文本参数拖放到提示框中
读取生成参数按钮,将提示框中的参数加载到UI
设置页面
从 UI 运行任意 python 代码(必须使用--allow-code
运行才能启用)
大多数 UI 元素的鼠标悬停提示
可以通过文本配置更改 UI 元素的默认/混合/最大/步长值
平铺支持,用于创建可以像纹理一样平铺的图像的复选框
进度条和实时图像生成预览
可以使用单独的神经网络来生成预览,几乎不需要 VRAM 或计算要求
否定提示,一个额外的文本字段,允许您列出您不想在生成的图像中看到的内容
样式,一种保存部分提示并稍后通过下拉菜单轻松应用它们的方法
变体,一种生成相同图像但有微小差异的方法
种子调整大小,一种生成相同图像但分辨率略有不同的方法
CLIP询问器,一个尝试从图像中猜测提示的按钮
提示剪辑,中代换提示的一种方式,比如说开始做西瓜,中途换成动漫少女
批处理,使用img2img处理一组文件
Img2img 交叉注意力控制的替代、反向欧拉方法
Highres Fix,一种方便的选项,只需单击一下即可生成高分辨率图片,而不会出现常见的扭曲
即时重新加载检查点
检查点合并,该选项卡允许您将最多 3 个检查点合并为一个
具有来自社区的许多扩展的自定义脚本
可组合扩散,一种同时使用多个提示的方法
使用大写AND
分隔提示
还支持提示权重: a cat :1.2 AND a dog AND a penguin :2.2
提示无代币限制(原创稳定扩散最多可使用 75 个代币)
DeepDanbooru 集成,为动漫提示创建 danbooru 风格标签
xformers,选择卡的主要速度提升:(将--xformers
添加到命令行参数)
通过扩展:历史记录选项卡:在 UI 中方便地查看、定向和删除图像
生成永久选项
训练选项卡
超网络和嵌入选项
预处理图像:使用 BLIP 或 deepdanbooru(针对动漫)进行裁剪、镜像、自动标记
剪辑跳过
超网络
Loras(与 Hypernetworks 相同但更漂亮)
一个单独的 UI,您可以通过预览选择要添加到提示中的嵌入、超网络或 Loras
可以选择从设置屏幕加载不同的 VAE
进度条中的预计完成时间
应用程序编程接口
RunwayML 支持专用修复模型
通过扩展:美学渐变,一种通过使用剪辑图像嵌入来生成具有特定美感的图像的方法(https://github.com/vicgalle/stable-diffusion-aesthetic-gradients 的实现)
稳定扩散 2.0 支持 - 请参阅 wiki 获取说明
Alt-Diffusion 支持 - 有关说明,请参阅 wiki
现在没有任何不好的字母了!
以 safetensors 格式加载检查点
放宽分辨率限制:生成图像的尺寸必须是 8 的倍数而不是 64
现在有执照了!
从设置屏幕重新排序 UI 中的元素
Segmind 稳定扩散支持
确保满足所需的依赖关系,并按照以下可用说明进行操作:
英伟达(推荐)
AMD GPU。
Intel CPU、Intel GPU(集成和独立)(外部 wiki 页面)
Ascend NPU(外部 wiki 页面)
或者,使用在线服务(例如 Google Colab):
在线服务列表
从 v1.0.0-pre 下载sd.webui.zip
并解压其内容。
运行update.bat
。
运行run.bat
。
有关更多详细信息,请参阅在 NVidia-GPU 上安装并运行
安装Python 3.10.6(较新版本的Python不支持torch),选中“Add Python to PATH”。
安装 git。
下载 stable-diffusion-webui 存储库,例如通过运行git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
。
以普通非管理员用户身份从 Windows 资源管理器运行webui-user.bat
。
安装依赖项:
# 基于 Debian:sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0# 基于 Red Hat:sudo dnf install wget git python3 gperftools-libs libglvnd-glx# 基于 openSUSE:sudo zypper install wget git python3 libtcmalloc4 libglvnd# 基于 Arch:sudo pacman -S wget git python3
如果您的系统很新,则需要安装 python3.11 或 python3.10:
# Ubuntu 24.04sudo add-apt-repository ppa:deadsnakes/ppa 须藤apt更新 sudo apt install python3.11# Manjaro/Archsudo pacman -S 耶 yay -S python311 # 不要与 python3.11 包混淆# 仅适用于 3.11# 然后在启动脚本中设置 env 变量export python_cmd="python3.11"# 或在 webui-user.shpython_cmd="python3.11" 中
导航到您想要安装 WebUI 的目录并执行以下命令:
wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh
或者只是将存储库克隆到您想要的任何位置:
git 克隆 https://github.com/AUTOMATIC1111/stable-diffusion-webui
运行webui.sh
。
检查webui-user.sh
的选项。
请在此处查找说明。
以下是向此存储库添加代码的方法:
文档已从本自述文件移至项目的 wiki。
为了让 Google 和其他搜索引擎抓取 wiki,这里有一个指向(不适用于人类)可抓取 wiki 的链接。
借用代码的许可证可以在Settings -> Licenses
屏幕以及html/licenses.html
文件中找到。
稳定扩散 - https://github.com/Stability-AI/stablediffusion,https://github.com/CompVis/taming-transformers,https://github.com/mcmonkey4eva/sd3-ref
k-扩散 - https://github.com/crowsonkb/k-diffusion.git
Spandrel - https://github.com/chaiNNer-org/spandrel 实施
GFPGAN - https://github.com/TencentARC/GFPGAN.git
CodeFormer - https://github.com/sczhou/CodeFormer
ESRGAN - https://github.com/xinntao/ESRGAN
SwinIR - https://github.com/JingyunLiang/SwinIR
Swin2SR - https://github.com/mv-lab/swin2sr
LDSR - https://github.com/Hafiidz/latent-diffusion
MiDaS - https://github.com/isl-org/MiDaS
优化想法 - https://github.com/basujindal/stable-diffusion
交叉注意力层优化 - Doggettx - https://github.com/Doggettx/stable-diffusion,即时编辑的原创想法。
交叉注意力层优化 - InvokeAI,lstein - https://github.com/invoke-ai/InvokeAI(最初为http://github.com/lstein/stable-diffusion)
次二次交叉注意力层优化 - Alex Birch (Birch-san/diffusers#1)、Amin Rezaei (https://github.com/AminRezaei0x443/memory-efficient-attention)
文本倒置 - Rinon Gal - https://github.com/rinongal/textual_inversion (我们没有使用他的代码,但我们正在使用他的想法)。
SD 高档创意 - https://github.com/jquesnelle/txt2imghd
用于绘制 mk2 的噪声生成 - https://github.com/parlance-zz/g-diffuser-bot
CLIP 询问器想法并借用一些代码 - https://github.com/pharmapsychotic/clip-interrogator
可组合扩散的想法 - https://github.com/energy-based-model/Compositional-Visual-Generation-with-Composable-Diffusion-Models-PyTorch
xformers - https://github.com/facebookresearch/xformers
DeepDanbooru - 动漫扩散器询问器 https://github.com/KichangKim/DeepDanbooru
从 float16 UNet 中以 float32 精度进行采样 - marunine 的想法,Birch-san 的示例 Diffusers 实现 (https://github.com/Birch-san/diffusers-play/tree/92feee6)
指导 pix2pix - Tim Brooks(明星)、Aleksander Holynski(明星)、Alexei A. Efros(无明星) - https://github.com/timothybrooks/instruct-pix2pix
安全建议 - RyotaK
UniPC 采样器 - Wenliang Zhu - https://github.com/wl-zhao/UniPC
TAESD - Ollin Boer Bohan - https://github.com/madebyollin/taesd
LyCORIS - 红白蓝叶
重新启动采样 - lambertae - https://github.com/Newbeeer/diffusion_restart_sampling
Hypertile - tfernd - https://github.com/tfernd/HyperTile
初始 Gradio 脚本 - 由匿名用户发布在 4chan 上。谢谢匿名用户。
(你)