พื้นที่เก็บข้อมูลนี้ประกอบด้วยสคริปต์การฝึกอบรม การสร้าง และยูทิลิตี้สำหรับ Stable Diffusion
ประวัติการเปลี่ยนแปลง จะถูกย้ายไปที่ด้านล่างของหน้า 更新履歴HAページ末尾に移しました。
日本語版 README こちら
เวอร์ชันการพัฒนาอยู่ในสาขา dev
โปรดตรวจสอบสาขา dev เพื่อดูการเปลี่ยนแปลงล่าสุด
รองรับ FLUX.1 และ SD3/SD3.5 ในสาขา sd3
หากคุณต้องการฝึกอบรมพวกเขาโปรดใช้สาขา sd3
เพื่อการใช้งานที่ง่ายขึ้น (สคริปต์ GUI และ PowerShell ฯลฯ...) โปรดไปที่พื้นที่เก็บข้อมูลที่ดูแลโดย bmaltais ขอบคุณ @bmaltais!
พื้นที่เก็บข้อมูลนี้มีสคริปต์สำหรับ:
ไฟล์ไม่มีข้อกำหนดสำหรับ PyTorch เนื่องจากเวอร์ชันของ PyTorch ขึ้นอยู่กับสภาพแวดล้อม จึงไม่รวมอยู่ในไฟล์ โปรดติดตั้ง PyTorch ก่อนตามสภาพแวดล้อม ดูคำแนะนำในการติดตั้งด้านล่าง
สคริปต์ได้รับการทดสอบด้วย Pytorch 2.1.2 2.0.1 และ 1.12.1 ไม่ได้ทดสอบ แต่ควรใช้งานได้
เอกสารส่วนใหญ่เขียนเป็นภาษาญี่ปุ่น
แปลภาษาอังกฤษโดย darkstorm2150 มาแล้ว ขอบคุณ darkstorm2150!
หลาม 3.10.6 และ Git:
ให้สิทธิ์การเข้าถึงสคริปต์อย่างไม่จำกัดแก่ PowerShell เพื่อให้ venv สามารถทำงานได้:
Set-ExecutionPolicy Unrestricted
และตอบ Aเปิดเทอร์มินัล Powershell ปกติแล้วพิมพ์ข้อความต่อไปนี้ภายใน:
git clone https: // github.com / kohya - ss / sd - scripts.git
cd sd - scripts
python - m venv venv
.venvScriptsactivate
pip install torch == 2.1 . 2 torchvision == 0.16 . 2 -- index - url https: // download.pytorch.org / whl / cu118
pip install -- upgrade - r requirements.txt
pip install xformers == 0.0 . 23. post1 -- index - url https: // download.pytorch.org / whl / cu118
accelerate config
หาก python -m venv
แสดงเฉพาะ python
ให้เปลี่ยน python
เป็น py
หมายเหตุ: ตอนนี้ bitsandbytes==0.43.0
, prodigyopt==1.0
และ lion-pytorch==0.0.6
จะรวมอยู่ในข้อกำหนด.txt หากคุณต้องการใช้เวอร์ชันอื่น โปรดติดตั้งด้วยตนเอง
การติดตั้งนี้มีไว้สำหรับ CUDA 11.8 หากคุณใช้ CUDA เวอร์ชันอื่น โปรดติดตั้ง PyTorch และ xformers เวอร์ชันที่เหมาะสม ตัวอย่างเช่น หากคุณใช้ CUDA 12 โปรดติดตั้ง pip install torch==2.1.2 torchvision==0.16.2 --index-url https://download.pytorch.org/whl/cu121
และ pip install xformers==0.0.23.post1 --index-url https://download.pytorch.org/whl/cu121
คำตอบเพื่อเร่งการกำหนดค่า:
- This machine
- No distributed training
- NO
- NO
- NO
- all
- fp16
หากคุณต้องการใช้ bf16 โปรดตอบ bf16
ในคำถามสุดท้าย
หมายเหตุ: ผู้ใช้บางรายรายงานว่า ValueError: fp16 mixed precision requires a GPU
ในการฝึก ในกรณีนี้ ให้ตอบ 0
สำหรับคำถามที่ 6: What GPU(s) (by id) should be used for training on this machine as a comma-separated list? [all]:
(จะใช้ GPU เดี่ยวที่มี id 0
)
เมื่อมีการออกรุ่นใหม่ คุณสามารถอัปเกรด repo ของคุณด้วยคำสั่งต่อไปนี้:
cd sd - scripts
git pull
.venvScriptsactivate
pip install -- use-pep517 -- upgrade - r requirements.txt
เมื่อคำสั่งเสร็จสมบูรณ์แล้ว คุณควรพร้อมที่จะใช้เวอร์ชันใหม่
หากคุณต้องการอัพเกรด PyTorch คุณสามารถอัพเกรดได้ด้วยคำสั่ง pip install
ในส่วนการติดตั้ง Windows จำเป็นต้องอัปเกรด xformers
เมื่ออัปเกรด PyTorch
การใช้งาน LoRA นั้นอิงตาม repo ของ cloneofsimo ขอบคุณสำหรับการทำงานที่ยอดเยี่ยม!
การขยาย LoRA ไปสู่ Conv2d 3x3 เปิดตัวครั้งแรกโดย cloneofsimo และประสิทธิภาพของมันได้รับการสาธิตที่ LoCon โดย KohakuBlueleaf ขอบคุณมากนะโคฮาคุบลูลีฟ!
สคริปต์ส่วนใหญ่ได้รับอนุญาตภายใต้ ASL 2.0 (รวมถึงโค้ดจาก Diffusers, cloneofsimo's และ LoCon) อย่างไรก็ตาม บางส่วนของโปรเจ็กต์จะพร้อมใช้งานภายใต้เงื่อนไขสิทธิ์การใช้งานที่แยกต่างหาก:
Pytorch ความสนใจอย่างมีประสิทธิภาพของหน่วยความจำ: MIT
บิตแซนด์ไบต์: MIT
BLIP: BSD-3-ข้อ
svd_merge_lora.py
การใช้งาน VRAM ลดลง อย่างไรก็ตาม การใช้งานหน่วยความจำหลักจะเพิ่มขึ้น (32GB ก็เพียงพอแล้ว)svd_merge_lora.py
のVRAM使用量を削減しました。ただし、メインメモラの使用量HA増加しました(32GBあれば十分です) แก้ไขข้อผิดพลาดใน svd_merge_lora.py
, sdxl_merge_lora.py
และ resize_lora.py
โดยที่ค่าแฮชของข้อมูลเมตา LoRA ไม่ได้รับการคำนวณอย่างถูกต้องเมื่อ save_precision
แตกต่างจาก precision
ที่ใช้ในการคำนวณ ดูปัญหา #1722 สำหรับรายละเอียด ขอบคุณ JujoHotaru สำหรับการหยิบยกประเด็นนี้
มันจะรวมอยู่ในรุ่นถัดไป
svd_merge_lora.py
、 sdxl_merge_lora.py
、 resize_lora.py
で、保存時の精度が計算時の精度と異なRU場合、LoRAメTAデーTAのハッシュ値が正しく計算されない不具合を修正しました。詳細は issue #1722 をご覧ください。問題提起していただいた JujoHotaru 氏に感謝しまし。
以上的次回リースに含まれます。
sdxl_merge_lora.py
รองรับ OFT แล้ว ขอขอบคุณ คุณมารุมี สำหรับการประชาสัมพันธ์ #1580.
svd_merge_lora.py
รองรับ LBW แล้ว ขอบคุณดินเผา. ดู PR #1575 สำหรับรายละเอียด
sdxl_merge_lora.py
รองรับ LBW ด้วย
ดู LoRA Block Weight โดย hako-mikan สำหรับรายละเอียดเกี่ยวกับ LBW
สิ่งเหล่านี้จะรวมอยู่ในรุ่นถัดไป
sdxl_merge_lora.py
が OFT をサポートされました。PR #1580 Maru-mee 氏に感謝しましま。
svd_merge_lora.py
で LBW がサポートされました。PR #1575 terracottahaniwa 氏に感謝しました。
sdxl_merge_lora.py
でも LBW がサポートされました。
LBW ใช้ hako-mikan 氏の LoRA Block Weight をご覧ください。
以上的次回リースに含まれます。
แก้ไข cache_latents.py
และ cache_text_encoder_outputs.py
ไม่ทำงาน (จะรวมอยู่ในรุ่นถัดไป)
cache_latents.py
およびcache_text_encoder_outputs.py
が動作しなくなっていたのを修正しました。
ค่าเริ่มต้นของ huber_schedule
ใน Scheduled Huber Loss เปลี่ยนจาก exponential
เป็น snr
ซึ่งคาดว่าจะให้ผลลัพธ์ที่ดีกว่า
Scheduled Huber Loss のhuber_schedule
のデフォルト値をexponential
から、より良い結果が期待でなりsnr
に変更しました。
imagesize
ถูกเพิ่มเข้ามาใหม่ ดังนั้นหากคุณไม่สามารถอัปเดตไลบรารีได้ทันที โปรดติดตั้งด้วย pip install imagesize==1.4.1
แยกต่างหากbitsandbytes==0.43.0
, prodigyopt==1.0
, lion-pytorch==0.0.6
จะรวมอยู่ในข้อกำหนด.txtbitsandbytes
ไม่ต้องการขั้นตอนที่ซับซ้อนอีกต่อไป เนื่องจากขณะนี้รองรับ Windows อย่างเป็นทางการแล้ว.toml
) ขอบคุณ bghira สำหรับการหยิบยกปัญหา--console_log_simple
ในสคริปต์การฝึกอบรมเพื่อปิดใช้งานการบันทึกแบบสมบูรณ์train_network.py
และ sdxl_train_network.py
ได้รับการแก้ไขเพื่อบันทึกการตั้งค่าชุดข้อมูลบางอย่างในข้อมูลเมตาของโมเดลที่ได้รับการฝึก ( caption_prefix
, caption_suffix
, keep_tokens_separator
, secondary_separator
, enable_wildcard
)train_network.py
และ sdxl_train_network.py
การบันทึกและการโหลดสถานะเร็วขึ้น ขนาดไฟล์เล็กลง และลดการใช้หน่วยความจำเมื่อโหลด--noise_offset_random_strength
และ --ip_noise_gamma_random_strength
จะถูกเพิ่มลงในแต่ละสคริปต์การฝึกอบรม ตัวเลือกเหล่านี้สามารถใช้เพื่อเปลี่ยนแปลงการชดเชยสัญญาณรบกวนและแกมมาสัญญาณรบกวน ip ในช่วง 0 ถึงค่าที่ระบุ PR #1177 ขอบคุณ KohakuBlueleaf!--save_state_on_train_end
จะถูกเพิ่มลงในแต่ละสคริปต์การฝึกอบรม PR #1168 ขอบคุณ gesen2egee!--sample_every_n_epochs
และ --sample_every_n_steps
ในแต่ละสคริปต์การฝึกตอนนี้จะแสดงคำเตือนและละเว้นเมื่อระบุตัวเลขน้อยกว่าหรือเท่ากับ 0
ขอขอบคุณ S-Del สำหรับการหยิบยกประเด็นนี้ .toml
สำหรับการกำหนดค่าชุดข้อมูลอ่านได้ในการเข้ารหัส UTF-8 แล้ว PR #1167 ขอบคุณ Horizon1704!secondary_separator
ถูกเพิ่มเพื่อระบุตัวคั่นแท็กที่ไม่ใช่เป้าหมายของการสับเปลี่ยนหรือปล่อยsecondary_separator=";;;"
- เมื่อคุณระบุ secondary_separator
ชิ้นส่วนจะไม่สับหรือหลุดenable_wildcard
ถูกเพิ่มแล้ว เมื่อตั้งค่าเป็น true
คุณสามารถใช้สัญลักษณ์ตัวแทน {aaa|bbb|ccc}
ได้ คำบรรยายแบบหลายบรรทัดยังเปิดใช้งานอยู่keep_tokens_separator
ได้รับการอัปเดตเพื่อใช้สองครั้งในคำบรรยายภาพ เมื่อคุณระบุ keep_tokens_separator="|||"
ส่วนที่หารด้วยวินาที |||
ไม่สับเปลี่ยนหรือตกหล่นและยังคงอยู่ที่ส่วนท้ายcaption_prefix
และ caption_suffix
สามารถใช้ร่วมกันได้ caption_prefix
และ caption_suffix
จะถูกประมวลผลก่อน จากนั้น enable_wildcard
, keep_tokens_separator
, การสับและปล่อย และ secondary_separator
จะถูกประมวลผลตามลำดับtag_image_by_wd14_tagger.py
( ตัวเลือก --onnx
เท่านั้น) PR #1192 ขอบคุณ sdbds!pip install onnx==1.15.0 onnxruntime-gpu==1.17.1
เป็นต้น โปรดตรวจสอบความคิดเห็นใน requirements.txt
ด้วย--repo_id
ใน tag_image_by_wd14_tagger.py
สิ่งนี้จะแคช repo_id หลายรุ่น โปรดลบไฟล์ที่ไม่จำเป็นภายใต้ --model_dir
tag_image_by_wd14_tagger.py
--use_rating_tags
และ --use_rating_tags_as_last_tag
--character_tags_first
--character_tag_expand
--always_first_tags
--tag_replacement
--beam_search
และค่า 2 หรือมากกว่าสำหรับ --num_beams
ใน make_captions.py
สคริปต์การฝึกอบรมแต่ละสคริปต์รองรับการสูญเสียที่ปกปิดไว้ หากต้องการเปิดใช้งานการสูญเสียที่ปกปิด ให้ระบุตัวเลือก --masked_loss
คุณสมบัตินี้ยังไม่ได้รับการทดสอบอย่างสมบูรณ์ ดังนั้นอาจมีข้อบกพร่อง หากคุณพบปัญหาใด ๆ โปรดเปิดปัญหา
ชุดข้อมูล ControlNet ใช้เพื่อระบุมาสก์ ภาพมาส์กควรเป็นภาพ RGB ค่าพิกเซล 255 ในช่อง R จะถือเป็นมาสก์ (การสูญเสียจะคำนวณเฉพาะพิกเซลที่มีมาสก์) และ 0 จะถือเป็นไม่ใช่มาสก์ ค่าพิกเซล 0-255 จะถูกแปลงเป็น 0-1 (เช่น ค่าพิกเซล 128 จะถือเป็นน้ำหนักครึ่งหนึ่งของการสูญเสีย) ดูรายละเอียดข้อกำหนดชุดข้อมูลในเอกสารประกอบของ LLLite
Scheduled Huber Loss ได้รับการแนะนำในสคริปต์การฝึกอบรมแต่ละรายการ นี่คือวิธีการปรับปรุงความทนทานต่อค่าผิดปกติหรือความผิดปกติ (ความเสียหายของข้อมูล) ในข้อมูลการฝึกอบรม
ด้วยฟังก์ชันการสูญเสีย MSE (L2) แบบเดิม ผลกระทบของค่าผิดปกติอาจมีนัยสำคัญ และอาจส่งผลให้คุณภาพของภาพที่ถูกสร้างขึ้นลดลง ในทางกลับกัน แม้ว่าฟังก์ชันการสูญเสียของ Huber สามารถระงับอิทธิพลของค่าผิดปกติได้ แต่ก็มีแนวโน้มที่จะกระทบต่อการสร้างรายละเอียดเล็กๆ น้อยๆ ในภาพ
เพื่อแก้ไขปัญหานี้ วิธีการที่นำเสนอใช้การประยุกต์ใช้ฟังก์ชันการสูญเสียของฮูเบอร์อย่างชาญฉลาด ด้วยการกำหนดเวลาการใช้การสูญเสีย Huber ในระยะแรกของการฝึกอบรม (เมื่อมีเสียงรบกวนสูง) และ MSE ในระยะต่อมา ทำให้เกิดความสมดุลระหว่างความทนทานที่ผิดปกติและการสร้างรายละเอียดที่ละเอียด
ผลการทดลองยืนยันว่าวิธีนี้ทำให้ข้อมูลที่มีค่าผิดปกติมีความแม่นยำสูงกว่าเมื่อเปรียบเทียบกับการสูญเสีย Huber หรือ MSE เพียงอย่างเดียว ต้นทุนการคำนวณที่เพิ่มขึ้นมีเพียงเล็กน้อย
อาร์กิวเมนต์ที่เพิ่มเข้ามาใหม่ loss_type, huber_schedule และ huber_c ช่วยให้สามารถเลือกประเภทฟังก์ชันการสูญเสีย (Huber, Smooth L1, MSE), วิธีการกำหนดเวลา (เอ็กซ์โพเนนเชียล, ค่าคงที่, SNR) และพารามิเตอร์ของ Huber ซึ่งเปิดใช้งานการปรับให้เหมาะสมตามลักษณะของชุดข้อมูล
ดู PR #1228 สำหรับรายละเอียด
loss_type
: ระบุประเภทฟังก์ชันการสูญเสีย เลือก huber
สำหรับการสูญเสีย Huber, smooth_l1
สำหรับการสูญเสีย L1 อย่างราบรื่น และ l2
สำหรับการสูญเสีย MSE ค่าเริ่มต้นคือ l2
ซึ่งเหมือนเดิมhuber_schedule
: ระบุวิธีการจัดตารางเวลา เลือก exponential
constant
หรือ snr
ค่าเริ่มต้นคือ snr
huber_c
: ระบุพารามิเตอร์ของ Huber ค่าเริ่มต้นคือ 0.1
โปรดอ่านข่าวประชาสัมพันธ์สำหรับการอัปเดตล่าสุด
imagesize
が新しく追加されていますので、しぐにライブララの更新がでない場合pip install imagesize==1.4.1
で個別にインストールしてください。bitsandbytes==0.43.0
、 prodigyopt==1.0
、 lion-pytorch==0.0.6
がrequirements.txtbitsandbytes
ใช้สำหรับ Windows และ Windows.toml
)への記載をお勧めします。問題提起していただいた bghira 氏に感謝しまし。--console_log_simple
オプしョンを指定し、rich のロギングを無効してお試しください。train_network.py
およびsdxl_train_network.py
で、学習したモデルのメTAデーTAに一部のデーTAセット設定が記録されルよう修正しました( caption_prefix
、 caption_suffix
、 keep_tokens_separator
、 ตัวคั่น secondary_separator
、 enable_wildcard
)train_network.py
およびsdxl_train_network.py
で、state に U-Net および Text Encoder が含まれル不具合を修正しました。state の保存、読み込みが高速化され、ファイルサイズも小さくなり、また読み込み時のメモラ使用量も削減されまし。--noise_offset_random_strength
および--ip_noise_gamma_random_strength
が追加されました。 PR #1177 KohakuBlueleaf 氏に感謝しまし。--save_state_on_train_end
オプしョンが追加されました。 PR #1168 gesen2egee 氏に感謝しました.--sample_every_n_epochs
および--sample_every_n_steps
オプションに0
以下の数値を指定した時、警告を表示するともにそれらを無視しよう変更しました。問題提起していただいた S-Del 氏に感謝しましました. .toml
ファイルが การเข้ารหัส UTF-8 で読み込まれrunようになりました。PR #1167 Horizon1704 氏に感謝しまし。secondary_separator
を追加しました。 secondary_separator=";;;"
のように指定しましま。 secondary_separator
で区切runことで、その部分HASHIャッル、หยด 時にまとめて扱われます。enable_wildcard
を追加しました。 true
にし{aaa|bbb|ccc}
した。keep_tokens_separator
をキャプション内に 2 つ使えrunようにしました。たとえばkeep_tokens_separator="|||"
と指定したととし、 1girl, hatsune miku, vocaloid ||| stage, mic ||| best quality, rating: general
とキャプしョンを指定すると、二番目の|||
で分割された部分HASHIャッフル、drop されず末尾に残りました。caption_prefix
とcaption_suffix
とあわせて使えまし。 caption_prefix
とcaption_suffix
ฮะ一番最初に処理され、その後、ワイルドカード、 keep_tokens_separator
、しャッフルおよび drop、 secondary_separator
の順に処理されます。tag_image_by_wd14_tagger.py
で v3 のリポジロがサポートされました( --onnx
指定時のみ有効)。 PR #1192 sdbds 氏に感謝しまし。pip install onnx==1.15.0 onnxruntime-gpu==1.17.1
等でイrequirements.txt
のkoメントもあわせてご確認ください。tag_image_by_wd14_tagger.py
で、モデルを--repo_id
のサブデジレクロに保存スロよにしました。これにより複数のモデルファイルがキャッSHIュされまし。 --model_dir
直下の不要なфァイルฮะ削除願いまし。tag_image_by_wd14_tagger.py
にいくつかのオプしョンを追加しました。--use_rating_tags
--use_rating_tags_as_last_tag
--character_tags_first
ก--character_tag_expand
--always_first_tags
ก--tag_replacement
make_captions.py
で--beam_search
を指定し--num_beams
に2以上の値を指定した時のエラーを修正しました。 各学習スクリプトでマスクロスをサポートしました。マスクロスを有効にスロにと--masked_loss
オプSHIョンを指定してください。
機能HA完全にテストされていないため、不具合があるかもしれません。その場合하 Issue を立てていただけrunと助かりまし。
マスкの指定には ControlNet デーTAセットを使用しましまし。マスク画子: RGB 画本必要がありました。R チャンネルのピクセル値 255 がロス計算対象、0 がロス計算対象外になりまし。0-255 の値ฮะ、0-1 の範囲に変換されます(つまりピクセル値 128 の部分HAロスの重みが半分になりました)。デーTAセットの詳細的 LLLite ドキュメントをご覧ください。
各学習スクラプロに、学習デーTA中の異常値や外れ値(data ความเสียหาย)への耐性を高めrunための手法、Scheduled Huber Lossが導入されました。
従来のMSE(L2)損失関数でな、異常値の影響を大คิく受けてしまい、生成画子の品質低下を招く恐れがありました。一方、ฮูเบอร์損失関数HA異常値の影響を抑えられましが、画本の細部再現性が損なわれがちでした。
この手法ではHuber損失関数の適用を工夫し、学習の初期段階(ノイズが大しい場合)ではHuber損失を、後期段階でとMSEを用いなようスケジューラングsuraruことで、異常値耐性と細部再現性のルランスを取りมะซู.
実験の結果でと、この手法が純粋なHuber損失やMSEと比べ、異常値を含むデーTAでより高い精度を達成ซุรุことが確認されていましたまた計算koストの増加HAわずかです。
具体的にな、新たに追加された引数loss_type、huber_schedule、huber_cで、損失関数の種類(Huber, สมูท L1, MSE) และスケジューラング方法(เอ็กซ์โปเนนเชียล, ค่าคงที่, SNR)を選択できました。これによりデーTAセットに応じた最適化が可能になります。
詳細的 PR #1228 をご覧ください。
loss_type
: 損失関数の種類を指定しましましま。 huber
で Huber損失、 smooth_l1
で Smooth L1 損失、 l2
で MSE 損失を選択しまし。デフォルトラl2
で、従来と同様です.huber_schedule
: スケジューリング方法を指定しましま。 เอ็กซ์ exponential
เนนเชียลで指数関数的、 constant
で一定、 snr
で信号対雑音比に基づくスケジューリングを選択しましま。デフォルとsnr
です。huber_c
: Huber損失のパラメーTAを指定しましまし。デフォルトと0.1
です。 PR 内でいくつかの比較が共有されています。この機能を試WS場合、最初--loss_type smooth_l1 --huber_schedule snr --huber_c 0.1
などで試してみRUとよいかもしれません。
最近の更新情報하 Release をご覧ください。
LoRA ที่สนับสนุนโดย train_network.py
ได้รับการตั้งชื่อเพื่อหลีกเลี่ยงความสับสน เอกสารได้รับการปรับปรุงแล้ว ต่อไปนี้เป็นชื่อของประเภท LoRA ในที่เก็บนี้
LoRA-LierLa : (LoRA สำหรับ Li n e a r La yers)
LoRA สำหรับเลเยอร์เชิงเส้นและเลเยอร์ Conv2d พร้อมเคอร์เนล 1x1
LoRA-C3Lier : (LoRA สำหรับเลเยอร์ C olutional พร้อม 3 x3 Kernel และ Li n e a r เลเยอร์)
นอกเหนือจาก 1., LoRA สำหรับเลเยอร์ Conv2d พร้อมเคอร์เนล 3x3
LoRA-LierLa เป็นประเภท LoRA เริ่มต้นสำหรับ train_network.py
(ไม่มีเครือข่าย conv_dim
arg)
ไฟล์พร้อมท์อาจมีลักษณะเช่นนี้ เป็นต้น
# prompt 1
masterpiece, best quality, (1girl), in white shirts, upper body, looking at viewer, simple background --n low quality, worst quality, bad anatomy,bad composition, poor, low effort --w 768 --h 768 --d 1 --l 7.5 --s 28
# prompt 2
masterpiece, best quality, 1boy, in business suit, standing at street, looking back --n (low quality, worst quality), bad anatomy,bad composition, poor, low effort --w 576 --h 832 --d 2 --l 5.5 --s 40
บรรทัดที่ขึ้นต้นด้วย #
คือความคิดเห็น คุณสามารถระบุตัวเลือกสำหรับรูปภาพที่สร้างขึ้นด้วยตัวเลือกเช่น --n
หลังข้อความแจ้ง ต่อไปนี้สามารถใช้ได้
--n
Negative แจ้งไปยังตัวเลือกถัดไป--w
ระบุความกว้างของภาพที่สร้างขึ้น--h
ระบุความสูงของภาพที่สร้างขึ้น--d
ระบุเมล็ดพันธุ์ของภาพที่สร้างขึ้น--l
ระบุขนาด CFG ของภาพที่สร้างขึ้น--s
ระบุจำนวนขั้นตอนในการสร้าง การถ่วงน้ำหนักทันที เช่น ( )
และ [ ]
กำลังทำงานอยู่