穩定擴散的 Web 介面,使用 Gradio 函式庫實作。
帶圖像的詳細功能展示:
原始 txt2img 和 img2img 模式
一鍵安裝並執行腳本(但仍必須安裝python和git)
外畫
修復
彩色素描
提示矩陣
穩定 擴散 高級
注意,指定模型應該更關注的文本部分
穿著((tuxedo))
的男人 - 會更專注於燕尾服
a man in a (tuxedo:1.21)
- 替代語法
選取文字並按Ctrl+Up
或Ctrl+Down
(如果您使用的是 MacOS,請按Command+Up
或Command+Down
)以自動調整對所選文字的關注(由匿名使用者貢獻的程式碼)
Loopback,多次運行img2img處理
X/Y/Z 圖,一種繪製具有不同參數的 3 維影像圖的方法
文字倒裝
擁有任意數量的嵌入並使用您喜歡的任何名稱
使用每個標記具有不同數量向量的多個嵌入
適用於半精度浮點數
在 8GB 上訓練嵌入(還有 6GB 工作的報告)
附加選項卡包含:
GFPGAN,修復人臉的神經網絡
CodeFormer,人臉修復工具,作為 GFPGAN 的替代品
RealESRGAN,神經網路升級器
ESRGAN,具有許多第三方模型的神經網路升級器
SwinIR 和 Swin2SR(請參閱此處),神經網路升級器
LDSR,潛在擴散超解析度升級
調整寬高比選項
採樣方法選擇
調整採樣器 eta 值(雜訊乘數)
更進階的噪音設定選項
隨時中斷處理
4GB 顯示卡支援(也有 2GB 工作報告)
批次正確種子
即時提示令牌長度驗證
發電參數
用於生成圖像的參數與該圖像一起保存
對於 PNG,在 PNG 區塊中;對於 JPEG,在 EXIF 中
可以將圖像拖曳到PNG資訊選項卡以恢復生成參數並自動將其複製到UI中
可以在設定中停用
將圖像/文字參數拖放到提示框中
讀取生成參數按鈕,將提示框中的參數載入到UI
設定頁面
從 UI 執行任意 python 程式碼(必須使用--allow-code
運行才能啟用)
大多數 UI 元素的滑鼠懸停提示
可以透過文字配置更改 UI 元素的預設/混合/最大/步長值
平鋪支持,用於創建可以像紋理一樣平舖的圖像的複選框
進度條和即時影像產生預覽
可以使用單獨的神經網路來產生預覽,幾乎不需要 VRAM 或運算要求
否定提示,一個額外的文字字段,允許您列出您不想在生成的圖像中看到的內容
樣式,一種保存部分提示並稍後透過下拉式選單輕鬆應用它們的方法
變體,一種產生相同影像但有微小差異的方法
種子調整大小,一種產生相同影像但解析度略有不同的方法
CLIP詢問器,一個嘗試從圖像中猜測提示的按鈕
提示剪輯,中代換提示的一種方式,比如說開始做西瓜,中途換成動漫少女
批次處理,使用img2img處理一組文件
Img2img 交叉注意力控制的替代、反向歐拉方法
Highres Fix,一種方便的選項,只需單擊即可生成高解析度圖片,而不會出現常見的扭曲
即時重新載入檢查點
檢查點合併,該標籤允許您將最多 3 個檢查點合併為一個
具有來自社區的許多擴充功能的自訂腳本
可組合擴散,同時使用多個提示的方法
使用大寫AND
分隔提示
也支持提示權重: a cat :1.2 AND a dog AND a penguin :2.2
提示無代幣限制(原始穩定擴散最多可使用 75 個代幣)
DeepDanbooru 集成,為動漫提示創建 danbooru 風格標籤
xformers,選擇卡片的主要速度提升:(將--xformers
新增至命令列參數)
透過擴充:歷史記錄標籤:在 UI 中方便地查看、定向和刪除影像
產生永久選項
訓練選項卡
超網路和嵌入選項
預處理影像:使用 BLIP 或 deepdanbooru(針對動漫)進行裁剪、鏡像、自動標記
剪輯跳過
超網路
Loras(與 Hypernetworks 相同但更漂亮)
一個單獨的 UI,您可以透過預覽選擇要新增到提示中的嵌入、超網路或 Loras
可以選擇從設定畫面載入不同的 VAE
進度條中的預計完成時間
應用程式介面
RunwayML 支援專用修復模型
透過擴展:美學漸變,一種透過使用剪輯圖像嵌入來產生具有特定美感的圖像的方法(https://github.com/vicgalle/stable-diffusion-aesthetic-gradients 的實現)
穩定擴散 2.0 支援 - 請參閱 wiki 以取得說明
Alt-Diffusion 支援 - 有關說明,請參閱 wiki
現在沒有任何不好的字母了!
以 safetensors 格式載入檢查點
放寬解析度限制:產生影像的尺寸必須是 8 的倍數而不是 64
現在有執照了!
從設定畫面重新排序 UI 中的元素
Segmind 穩定擴散支持
確保滿足所需的依賴關係,並按照以下可用說明進行操作:
英偉達(推薦)
AMD GPU。
Intel CPU、Intel GPU(整合和獨立)(外部 wiki 頁面)
Ascend NPU(外部 wiki 頁面)
或者,使用線上服務(例如 Google Colab):
線上服務列表
從 v1.0.0-pre 下載sd.webui.zip
並解壓縮其內容。
運行update.bat
。
運行run.bat
。
有關更多詳細信息,請參閱在 NVidia-GPU 上安裝並運行
安裝Python 3.10.6(較新版本的Python不支援torch),選取「Add Python to PATH」。
安裝 git。
下載 stable-diffusion-webui 儲存庫,例如透過執行git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
。
以普通非管理員使用者身分從 Windows 資源管理器執行webui-user.bat
。
安裝依賴項:
# 基於 Debian:sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0# 基於 Red Hat:sudo dnf install wget python3 gperftools-libs libglvnd-glx install wget python3 gperftools-libs libglvnd-glxxx 是基於 07 月Arch:sudo pacman -S wget git python3
如果您的系統很新,則需要安裝 python3.11 或 python3.10:
# Ubuntu 24.04sudo add-apt-repository ppa:deadsnakes/ppa 須藤apt更新 sudo apt install python3.11# Manjaro/Archsudo pacman -S 耶 yay -S python311 # 不要與 python3.11 套件混淆# 只適用於 3.11# 然後在啟動腳本中設定 env 變數export python_cmd="python3.11"# 或在 webui-user.shpython_cmd="python3.11"py"py 中
導覽至您想要安裝 WebUI 的目錄並執行以下命令:
wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh
或者只是將存儲庫克隆到您想要的任何位置:
git 克隆 https://github.com/AUTOMATIC1111/stable-diffusion-webui
運行webui.sh
。
檢查webui-user.sh
的選項。
請在此處尋找說明。
以下是向此存儲庫添加程式碼的方法:
文件已從本自述文件移至專案的 wiki。
為了讓 Google 和其他搜尋引擎抓取 wiki,這裡有一個指向(不適用於人類)可抓取 wiki 的連結。
借用程式碼的許可證可以在Settings -> Licenses
畫面以及html/licenses.html
檔案中找到。
穩定擴散 - https://github.com/Stability-AI/stablediffusion,https://github.com/CompVis/taming-transformers,https://github.com/mcmonkey4eva/sd3-ref
k-擴散 - https://github.com/crowsonkb/k-diffusion.git
Spandrel - https://github.com/chaiNNer-org/spandrel 實施
GFPGAN - https://github.com/TencentARC/GFPGAN.git
CodeFormer - https://github.com/sczhou/CodeFormer
ESRGAN - https://github.com/xinntao/ESRGAN
SwinIR - https://github.com/JingyunLiang/SwinIR
Swin2SR - https://github.com/mv-lab/swin2sr
LDSR - https://github.com/Hafiidz/latent-diffusion
MiDaS - https://github.com/isl-org/MiDaS
優化想法 - https://github.com/basujindal/stable-diffusion
交叉注意力層優化 - Doggettx - https://github.com/Doggettx/stable-diffusion,即時編輯的原創想法。
交叉注意力層優化 - InvokeAI,lstein - https://github.com/invoke-ai/InvokeAI(原為http://github.com/lstein/stable-diffusion)
次二次交叉注意力層優化 - Alex Birch (Birch-san/diffusers#1)、Amin Rezaei (https://github.com/AminRezaei0x443/memory-efficient-attention)
文字倒置 - Rinon Gal - https://github.com/rinongal/textual_inversion (我們沒有使用他的程式碼,但我們正在使用他的想法)。
SD 高檔創意 - https://github.com/jquesnelle/txt2imghd
用於繪製 mk2 的噪音產生 - https://github.com/parlance-zz/g-diffuser-bot
CLIP 詢問器想法並借用一些程式碼 - https://github.com/pharmapsychotic/clip-interrogator
可組合擴散的想法 - https://github.com/energy-based-model/Compositional-Visual-Generation-with-Composable-Diffusion-Models-PyTorch
xformers - https://github.com/facebookresearch/xformers
DeepDanbooru - 動漫擴散器詢問器 https://github.com/KichangKim/DeepDanbooru
從 float16 UNet 中以 float32 精度進行採樣 - marunine 的想法,Birch-san 的示例 Diffusers 實現 (https://github.com/Birch-san/diffusers-play/tree/92feee6)
指導 pix2pix - Tim Brooks(明星)、Aleksander Holynski(明星)、Alexei A. Efros(無明星) - https://github.com/timothybrooks/instruct-pix2pix
安全建議 - RyotaK
UniPC 採樣器 - Wenliang Zhu - https://github.com/wl-zhao/UniPC
TAESD - Ollin Boer Bohan - https://github.com/madebyollin/taesd
LyCORIS - 紅白藍葉
重新啟動採樣 - lambertae - https://github.com/Newbeeer/diffusion_restart_sampling
Hypertile - tfernd - https://github.com/tfernd/HyperTile
初始 Gradio 腳本 - 由匿名使用者發佈在 4chan 上。謝謝匿名用戶。
(你)