โปรดทราบว่าฉันได้เปิดตัว Dream Factory ซึ่งเป็นการอัปเกรดที่สำคัญสำหรับสิ่งนี้ มี GUI (ทางเลือก) การรองรับ GPU หลายตัวพร้อมกันอย่างแท้จริง แกลเลอรีรวมพร้อมการรองรับเมตาดาต้า EXIF เต็มรูปแบบ และคุณสมบัติใหม่อื่น ๆ อีกมากมาย
ฉันยกเลิกการรองรับ VQGAN และ Disco Diffusion เพื่อมุ่งเน้นไปที่ Stable Diffusion ดังนั้นหากคุณต้องการ VQGAN และ/หรือ Disco Diffusion คุณควรยึดสิ่งนี้ไว้ก่อน ไม่เช่นนั้นฉันขอแนะนำให้ทุกคนย้ายไปที่ Dream Factory! ฉันจะแก้ไขข้อบกพร่องใน repo นี้ต่อไป แต่มีแนวโน้มว่าฉันจะไม่เพิ่มคุณสมบัติใหม่ในอนาคต
สำหรับการสร้างงานศิลปะที่สร้างโดย AI จำนวนมากในท้องถิ่นโดยอัตโนมัติ ใส่ GPU ของคุณเพื่อสร้างสรรค์งานศิลปะที่สร้างโดย AI ตลอด 24 ชั่วโมงทุกวัน ด้วยความสามารถในการคิวอัตโนมัติพร้อมท์คิวขนาดใหญ่ที่รวมหัวข้อที่ผู้ใช้เลือก สไตล์/ศิลปิน และอื่นๆ อีกมากมาย! ข้อมูลเพิ่มเติมเกี่ยวกับรุ่นต่างๆ หลังจากภาพตัวอย่าง
ภาพตัวอย่างบางส่วนที่ฉันสร้างขึ้นผ่านกระบวนการนี้ (ภาพเหล่านี้คัดพิเศษและลับคม):
โปรดทราบว่าฉันไม่ได้สร้างหรือฝึกโมเดลที่ใช้ในโปรเจ็กต์นี้ และไม่ได้เกี่ยวข้องกับการเขียนโค้ดดั้งเดิม ฉันเพิ่งแก้ไขเวอร์ชัน colab ดั้งเดิมเพื่อให้ทำงานได้ในเครื่องและเพิ่มการรองรับการทำงานอัตโนมัติ โมเดลที่รองรับในปัจจุบัน พร้อมลิงก์ไปยังการใช้งานดั้งเดิม:
คุณจะต้องมี Nvidia GPU โดยควรมี VRAM ในปริมาณที่เหมาะสม VRAM ขนาด 12GB เพียงพอสำหรับอิมเมจเอาต์พุตขนาด 512x512 ขึ้นอยู่กับรุ่นและการตั้งค่า และ 8GB ควรเพียงพอสำหรับขนาด 384x384 (8GB ควรถือเป็นขั้นต่ำที่สมเหตุสมผล!) หากต้องการสร้างรูปภาพขนาด 1024x1024 คุณจะต้องมี VRAM ประมาณ 24GB ขึ้นไป การสร้างภาพขนาดเล็กแล้วขยายขนาดผ่าน ESRGAN หรือแพ็คเกจอื่นๆ ก็ให้ผลลัพธ์ที่ดีมากเช่นกัน
ควรจะเป็นไปได้ที่จะทำงานบน AMD GPU แต่คุณจะต้องอยู่บน Linux เพื่อติดตั้ง Pytorch เวอร์ชัน ROCm ฉันไม่มี AMD GPU ที่จะโยนลงในเครื่อง Linux ดังนั้นฉันจึงไม่ได้ทดสอบด้วยตัวเอง
คำแนะนำเหล่านี้ได้รับการทดสอบบนเดสก์ท็อป Windows 10 ที่มี GPU Nvidia 3080 Ti (12GB VRAM) และบนระบบ Ubuntu Server 20.04.3 ที่มี GPU Nvidia Tesla M40 (24GB VRAM) รุ่นเก่า
[1] ติดตั้ง Anaconda เปิดรูทเทอร์มินัล และสร้างสภาพแวดล้อมใหม่ (และเปิดใช้งาน):
conda create --name ai-art python=3.9
conda activate ai-art
[2] ติดตั้ง Pytorch:
conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch
โปรดทราบว่าคุณสามารถปรับแต่งการติดตั้ง Pytorch ของคุณได้โดยใช้เครื่องมือออนไลน์ที่อยู่ ที่นี่
[3] ติดตั้งแพ็คเกจ Python ที่จำเป็นอื่น ๆ :
conda install -c anaconda git urllib3
pip install transformers keyboard pillow ftfy regex tqdm omegaconf pytorch-lightning IPython kornia imageio imageio-ffmpeg einops torch_optimizer
[4] โคลนพื้นที่เก็บข้อมูลนี้และสลับไปยังไดเร็กทอรี:
git clone https://github.com/rbbrdckybk/ai-art-generator
cd ai-art-generator
โปรดทราบว่าผู้ใช้ Linux อาจต้องมีเครื่องหมายคำพูดเดี่ยวรอบ URL ในคำสั่ง clone
[5] โคลนพื้นที่เก็บข้อมูลที่จำเป็นเพิ่มเติม:
git clone https://github.com/openai/CLIP
git clone https://github.com/CompVis/taming-transformers
[6] ดาวน์โหลดไฟล์จุดตรวจสอบโมเดลที่ได้รับการฝึกอบรมล่วงหน้าของ VQGAN เริ่มต้น:
mkdir checkpoints
curl -L -o checkpoints/vqgan_imagenet_f16_16384.yaml -C - "https://heibox.uni-heidelberg.de/d/a7530b09fed84f80a887/files/?p=%2Fconfigs%2Fmodel.yaml&dl=1"
curl -L -o checkpoints/vqgan_imagenet_f16_16384.ckpt -C - "https://heibox.uni-heidelberg.de/d/a7530b09fed84f80a887/files/?p=%2Fckpts%2Flast.ckpt&dl=1"
โปรดทราบว่าผู้ใช้ Linux ควรแทนที่เครื่องหมายคำพูดคู่ในคำสั่ง curl ด้วยเครื่องหมายคำพูดเดี่ยว
[7] (ไม่บังคับ) ดาวน์โหลดโมเดลที่ได้รับการฝึกล่วงหน้าเพิ่มเติม:
ไม่จำเป็นต้องใช้รุ่นเพิ่มเติม แต่ให้ตัวเลือกเพิ่มเติมแก่คุณ นี่คือรายการโมเดลที่ได้รับการฝึกล่วงหน้าที่ดีที่มีอยู่
ตัวอย่างเช่น หากคุณต้องการโมเดล FFHQ (ฝึกบนใบหน้าด้วย):
curl -L -o checkpoints/ffhq.yaml -C - "https://app.koofr.net/content/links/0fc005bf-3dca-4079-9d40-cdf38d42cd7a/files/get/2021-04-23T18-19-01-project.yaml?path=%2F2021-04-23T18-19-01_ffhq_transformer%2Fconfigs%2F2021-04-23T18-19-01-project.yaml&force"
curl -L -o checkpoints/ffhq.ckpt -C - "https://app.koofr.net/content/links/0fc005bf-3dca-4079-9d40-cdf38d42cd7a/files/get/last.ckpt?path=%2F2021-04-23T18-19-01_ffhq_transformer%2Fcheckpoints%2Flast.ckpt"
[8] (ไม่บังคับ) ทดสอบ VQGAN+CLIP:
python vqgan.py -s 128 128 -i 200 -p "a red apple" -o output/output.png
คุณควรเห็น output.png สร้างขึ้นในไดเร็กทอรีเอาต์พุต ซึ่งจะมีลักษณะคล้ายแอปเปิลเล็กน้อย
[9] ติดตั้งแพ็คเกจสำหรับการแพร่กระจายแบบใช้ CLIP (หากคุณสนใจเฉพาะ VQGAN+CLIP คุณสามารถข้ามทุกอย่างตั้งแต่ตรงนี้ไปจนจบ):
pip install ipywidgets omegaconf torch-fidelity einops wandb opencv-python matplotlib lpips datetime timm
conda install pandas
(10) ที่เก็บโคลนสำหรับการแพร่กระจายแบบใช้ CLIP:
git clone https://github.com/crowsonkb/guided-diffusion
git clone https://github.com/assafshocher/ResizeRight
git clone https://github.com/CompVis/latent-diffusion
[11] ดาวน์โหลดโมเดลที่จำเป็นสำหรับการแพร่กระจายแบบใช้ CLIP:
mkdir contentmodels
curl -L -o content/models/256x256_diffusion_uncond.pt -C - "https://openaipublic.blob.core.windows.net/diffusion/jul-2021/256x256_diffusion_uncond.pt"
curl -L -o content/models/512x512_diffusion_uncond_finetune_008100.pt -C - "http://batbot.tv/ai/models/guided-diffusion/512x512_diffusion_uncond_finetune_008100.pt"
curl -L -o content/models/secondary_model_imagenet_2.pth -C - "https://ipfs.pollinations.ai/ipfs/bafybeibaawhhk7fhyhvmm7x24zwwkeuocuizbqbcg5nqx64jq42j75rdiy/secondary_model_imagenet_2.pth"
mkdir contentmodelssuperres
curl -L -o content/models/superres/project.yaml -C - "https://heibox.uni-heidelberg.de/f/31a76b13ea27482981b4/?dl=1"
curl -L -o content/models/superres/last.ckpt -C - "https://heibox.uni-heidelberg.de/f/578df07c8fc04ffbadf3/?dl=1"
โปรดทราบว่าผู้ใช้ Linux ควรแทนที่เครื่องหมายคำพูดคู่ในคำสั่ง curl ด้วยเครื่องหมายคำพูดเดี่ยวอีกครั้ง และแทนที่เครื่องหมายแบ็กสแลช mkdir ด้วยเครื่องหมายทับข้างหน้า
[12] (ทางเลือก) ทดสอบการแพร่กระจายโดยใช้ CLIP:
python diffusion.py -s 128 128 -i 200 -p "a red apple" -o output.png
คุณควรเห็น output.png สร้างขึ้นในไดเร็กทอรีเอาต์พุต ซึ่งจะมีลักษณะคล้ายแอปเปิลเล็กน้อย
[13] Clone Stable Diffusion repository (หากคุณไม่สนใจ SD คุณสามารถข้ามทุกอย่างตั้งแต่ตรงนี้ไปจนจบ):
git clone https://github.com/rbbrdckybk/stable-diffusion
[14] ติดตั้งการพึ่งพาเพิ่มเติมที่จำเป็นสำหรับ Stable Diffusion:
pip install diffusers
[15] ดาวน์โหลดไฟล์จุดตรวจสอบที่ได้รับการฝึกล่วงหน้า Stable Diffusion:
mkdir stable-diffusionmodelsldmstable-diffusion-v1
curl -L -o stable-diffusion/models/ldm/stable-diffusion-v1/model.ckpt -C - "https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt"
หากคำสั่ง curl ไม่ดาวน์โหลดจุดตรวจสอบ แสดงว่ามีการล็อกอยู่หลังการเข้าสู่ระบบ คุณจะต้องลงทะเบียนที่นี่ (ต้องใช้อีเมลและชื่อเท่านั้น) จากนั้นจึงดาวน์โหลดไฟล์จุดตรวจได้ที่นี่
หลังจากดาวน์โหลด คุณจะต้องวางไฟล์ .ckpt ลงในไดเร็กทอรีที่สร้างขึ้นด้านบนและตั้งชื่อเป็น model.ckpt
[16] (ทางเลือก) ทดสอบการแพร่กระจายที่เสถียร:
วิธีที่ง่ายที่สุดในการทดสอบ SD คือการสร้างไฟล์พร้อมท์ง่ายๆ ด้วย !PROCESS = stablediff และหัวเรื่องเดียว ดู example-prompts.txt และส่วนถัดไปสำหรับข้อมูลเพิ่มเติม สมมติว่าคุณสร้างไฟล์พร้อมท์ง่ายๆ ชื่อ test.txt ก่อน คุณสามารถทดสอบได้โดยการเรียกใช้:
python make_art.py test.txt
รูปภาพควรถูกบันทึกลงในไดเร็กทอรี เอาต์พุต หากสำเร็จ (จัดเป็นไดเร็กทอรีย่อยที่ตั้งชื่อตามวันที่และไฟล์พร้อมท์)
[17] ตั้งค่า ESRGAN/GFPGAN (หากคุณไม่ได้วางแผนที่จะขยายขนาดรูปภาพ คุณสามารถข้ามสิ่งนี้และอย่างอื่นทั้งหมดได้):
git clone https://github.com/xinntao/Real-ESRGAN
pip install basicsr facexlib gfpgan
cd Real-ESRGAN
curl -L -o experiments/pretrained_models/RealESRGAN_x4plus.pth -C - "https://github.com/xinntao/Real-ESRGAN/releases/download/v0.1.0/RealESRGAN_x4plus.pth"
python setup.py develop
cd ..
คุณทำเสร็จแล้ว!
หากคุณได้รับข้อผิดพลาดนอกเหนือจาก GPU VRAM ที่ไม่เพียงพอในขณะทำงาน และไม่ได้อัปเดตการติดตั้งมาระยะหนึ่งแล้ว ให้ลองอัปเดตแพ็คเกจที่สำคัญกว่าบางส่วน เช่น:
pip install transformers -U
โดยพื้นฐานแล้ว คุณเพียงแค่ต้องสร้างไฟล์ข้อความที่มีหัวเรื่องและสไตล์ที่คุณต้องการใช้ในการสร้างภาพ หากคุณมี 5 หัวข้อและ 20 สไตล์ในไฟล์พร้อมท์ของคุณ ระบบจะสร้างภาพที่ส่งออกทั้งหมด 100 ภาพ (20 ภาพสไตล์สำหรับแต่ละเรื่อง)
ดูที่ example-prompts.txt เพื่อดูว่าไฟล์พร้อมท์ควรมีลักษณะอย่างไร คุณสามารถเพิกเฉยต่อทุกสิ่งได้ยกเว้นพื้นที่ [วิชา] และ [สไตล์] ในตอนนี้ บรรทัดที่ขึ้นต้นด้วย '#' คือความคิดเห็นและจะถูกละเว้น และบรรทัดที่ขึ้นต้นด้วย '!' เป็นคำสั่งการตั้งค่าและจะอธิบายไว้ในส่วนถัดไป สำหรับตอนนี้ เพียงแก้ไขหัวเรื่องและสไตล์ตัวอย่างด้วยสิ่งที่คุณต้องการใช้
หลังจากที่คุณเติม example-prompts.txt ตามที่คุณต้องการแล้ว คุณก็สามารถเรียกใช้:
python make_art.py example-prompts.txt
ภาพแต่ละภาพจะใช้เวลาตั้งแต่ไม่กี่วินาทีไปจนถึงสองสามชั่วโมง (บนฮาร์ดแวร์รุ่นเก่า) ในการสร้าง ทั้งนี้ขึ้นอยู่กับฮาร์ดแวร์และการตั้งค่าของคุณ หากคุณสามารถเรียกใช้ Stable Diffusion ได้ ฉันขอแนะนำอย่างยิ่งให้ใช้งานเพื่อให้ได้ผลลัพธ์ที่ดีที่สุด ทั้งในด้านความเร็วและคุณภาพของภาพ
รูปภาพเอาต์พุตจะถูกสร้างขึ้นในไดเร็กทอรี เอาต์พุต/[วันที่ปัจจุบัน]-[ชื่อไฟล์พร้อมท์]/ ตามค่าเริ่มต้น ไดเร็กทอรีเอาต์พุตจะมีไฟล์ JPG สำหรับแต่ละภาพที่มีชื่อตามหัวเรื่องและสไตล์ที่ใช้สร้าง ตัวอย่างเช่น หากคุณมี "ลิงบนมอเตอร์ไซค์" เป็นตัวแบบ และ "โดย Picasso" เป็นสไตล์ รูปภาพเอาต์พุตจะถูกสร้างขึ้นเป็นเอาต์พุต/[วันที่ปัจจุบัน]-[ชื่อไฟล์พร้อมท์]/a -monkey-on-a-motorcycle-by-picasso.jpg (ชื่อไฟล์จะแตกต่างกันเล็กน้อยขึ้นอยู่กับกระบวนการที่ใช้)
คุณสามารถกด CTRL+SHIFT+P ได้ตลอดเวลาเพื่อหยุดการดำเนินการชั่วคราว (การหยุดชั่วคราวจะมีผลเมื่อรูปภาพปัจจุบันเสร็จสิ้นการเรนเดอร์) กด CTRL+SHIFT+P อีกครั้งเพื่อยกเลิกการหยุดชั่วคราว มีประโยชน์หากคุณใช้งานสิ่งนี้บนคอมพิวเตอร์เครื่องหลักและจำเป็นต้องใช้ GPU เพื่ออย่างอื่นชั่วขณะหนึ่ง คุณยังสามารถกด CTRL+SHIFT+R เพื่อโหลดไฟล์พร้อมท์ซ้ำ หากคุณได้เปลี่ยนแปลง (คิวงานปัจจุบันจะถูกยกเลิก และคิวงานใหม่จะถูกสร้างขึ้นจากเนื้อหาของไฟล์พร้อมท์ของคุณ) โปรดทราบว่าการป้อนข้อมูลด้วยแป้นพิมพ์ใช้งานได้บน Windows เท่านั้น
การตั้งค่าที่ใช้ในการสร้างแต่ละภาพจะถูกบันทึกเป็นข้อมูลเมตาในไฟล์ JPG เอาท์พุตแต่ละไฟล์ตามค่าเริ่มต้น คุณสามารถอ่านข้อมูลเมตาดาต้ากลับมาได้โดยใช้ยูทิลิตี้ EXIF หรือเพียงคลิกขวาที่ไฟล์รูปภาพใน Windows Explorer แล้วเลือก "คุณสมบัติ" จากนั้นคลิกที่บานหน้าต่าง "รายละเอียด" ช่อง "ความคิดเห็น" เก็บคำสั่งที่ใช้สร้างภาพ
คุณสามารถรวมคำสั่งไว้ในไฟล์พร้อมท์ของคุณเพื่อแก้ไขการตั้งค่าสำหรับพร้อมท์ทั้งหมดที่ตามมา คำสั่งการตั้งค่าเหล่านี้ระบุไว้โดยการวางไว้ในบรรทัดของตนเองภายในพื้นที่ [หัวเรื่อง] ของไฟล์พร้อมท์ ในรูปแบบต่อไปนี้:
![การตั้งค่าที่จะเปลี่ยน] = [ค่าใหม่]
สำหรับ [setting to change] คำสั่งที่ถูกต้องคือ:
ตัวอย่างบางส่วน:
!PROCESS = vqgan
สิ่งนี้จะกำหนดกระบวนการสร้างภาพ AI ในปัจจุบัน ตัวเลือกที่ถูกต้องคือ vqgan สำหรับ VQGAN+CLIP, การแพร่กระจาย สำหรับการแพร่กระจายแบบมีไกด์ด้วย CLIP (Disco Diffusion) หรือ ค่าคงที่ สำหรับการกระจายแบบเสถียร
!CUDA_DEVICE = 0
สิ่งนี้จะบังคับให้ใช้ GPU 0 (ค่าเริ่มต้น) มีประโยชน์หากคุณมี GPU หลายตัว คุณสามารถเรียกใช้อินสแตนซ์ได้หลายอินสแตนซ์ โดยแต่ละอินสแตนซ์จะมีไฟล์พร้อมท์ของตัวเองซึ่งระบุ GPU ID ที่ไม่ซ้ำกัน
!WIDTH = 384
!HEIGHT = 384
สิ่งนี้จะตั้งค่าขนาดภาพที่ส่งออกเป็น 384x384 ขนาดเอาต์พุตที่ใหญ่ขึ้นต้องใช้ GPU VRAM มากขึ้น โปรดทราบว่าสำหรับ Stable Diffusion ค่าเหล่านี้ควรเป็นทวีคูณของ 64
!TRANSFORMER = ffhq
สิ่งนี้จะบอก VQGAN ให้ใช้หม้อแปลง FFHQ (ค่อนข้างดีกว่าเมื่อเผชิญหน้า) แทนที่จะเป็นค่าเริ่มต้น (vqgan_imagenet_f16_16384) คุณสามารถทำตามขั้นตอนที่ 7 ในคำแนะนำการตั้งค่าด้านบนเพื่อรับหม้อแปลง ffhq พร้อมด้วยลิงก์ไปยังตัวแปลงอื่นๆ
สิ่งที่คุณระบุที่นี่ต้องมีอยู่ในไดเร็กทอรีจุดตรวจเป็นไฟล์ .ckpt และ .yaml
!INPUT_IMAGE = samples/face-input.jpg
ซึ่งจะใช้ตัวอย่าง/face-input.jpg (หรือรูปภาพใดๆ ก็ตามที่คุณระบุ) เป็นรูปภาพเริ่มต้น แทนที่จะเป็นสัญญาณรบกวนแบบสุ่มที่เป็นค่าเริ่มต้น รูปภาพที่ป้อนจะต้องมีอัตราส่วนภาพเดียวกันกับรูปภาพที่ส่งออกเพื่อให้ได้ผลลัพธ์ที่ดี โปรดทราบว่าเมื่อใช้กับ Stable Diffusion ขนาดภาพที่ส่งออกจะเท่ากับภาพที่ป้อนเข้า (การตั้งค่าความสูง/ความกว้างของคุณจะถูกละเว้น)
!SEED = 42
ซึ่งจะใช้ 42 เป็นค่าเริ่มต้นของอินพุต แทนที่จะเป็นตัวเลขสุ่ม (ค่าเริ่มต้น) มีประโยชน์สำหรับความสามารถในการทำซ้ำ - เมื่อพารามิเตอร์อื่นๆ ทั้งหมดเหมือนกัน การใช้ค่าเริ่มต้นเดียวกันควรให้ภาพที่เหมือนกันในการรันหลายครั้ง ตั้งค่าเป็นศูนย์หรือ -1 เพื่อรีเซ็ตเป็นค่าสุ่ม
!INPUT_IMAGE =
การตั้งค่าใดๆ เหล่านี้เป็นค่าใด ๆ จะทำให้ค่าดังกล่าวกลับเป็นค่าเริ่มต้น ดังนั้นในตัวอย่างนี้ จะไม่มีการใช้รูปภาพเริ่มต้น
!STEPS = 50
ตั้งค่าจำนวนขั้นตอน (คล้ายกับการวนซ้ำ) เมื่อใช้ Stable Diffusion เป็น 50 (ค่าเริ่มต้น) ค่าที่สูงกว่าจะใช้เวลานานกว่าและอาจปรับปรุงคุณภาพของภาพได้ ค่าที่มากกว่า 100 แทบจะไม่สร้างความแตกต่างที่เห็นได้ชัดเจนเมื่อเทียบกับค่าที่ต่ำกว่า
!SCALE = 7.5
ตั้งค่าสเกลการนำทางเมื่อใช้ Stable Diffusion เป็น 7.5 (ค่าเริ่มต้น) ค่าที่สูงกว่า (ถึงจุดหนึ่ง ผลลัพธ์ที่เกิน ~25 อาจแปลก) จะทำให้ผลลัพธ์เป็นไปตามพร้อมท์ของคุณมากขึ้น
!SAMPLES = 1
ตั้งค่าจำนวนครั้งในการสุ่มตัวอย่างเมื่อใช้ Stable Diffusion เป็น 1 (ค่าเริ่มต้น) ค่าที่มากกว่า 1 จะทำให้มีการสร้างอิมเมจเอาต์พุตหลายอิมเมจสำหรับแต่ละพรอมต์ โดยประหยัดเวลาได้เล็กน้อยต่ออิมเมจ ไม่มีค่าใช้จ่ายใน GPU VRAM ที่จำเป็นสำหรับการเพิ่มสิ่งนี้
!STRENGTH = 0.75
ตั้งค่าอิทธิพลของรูปภาพเริ่มต้นเป็น 0.75 (ค่าเริ่มต้น) เกี่ยวข้องเฉพาะเมื่อใช้ Stable Diffusion กับรูปภาพอินพุต ค่าที่ถูกต้องอยู่ระหว่าง 0-1 โดยที่ 1 สอดคล้องกับการทำลายภาพที่ป้อนเข้าโดยสมบูรณ์ และ 0 สอดคล้องกับการปล่อยให้ภาพที่เริ่มต้นไม่เสียหายโดยสมบูรณ์ ค่าระหว่าง 0.25 ถึง 0.75 มีแนวโน้มที่จะให้ผลลัพธ์ที่น่าสนใจ
!SD_LOW_MEMORY = no
ใช้ repo แบบแยกที่มีความต้องการหน่วยความจำ GPU ที่ต่ำกว่ามากเมื่อใช้ Stable Diffusion (ใช่/ไม่ใช่) การตั้งค่านี้เป็น ใช่ จะเปลี่ยนไปใช้ SD เวอร์ชันเพิ่มประสิทธิภาพหน่วยความจำ ซึ่งจะช่วยให้คุณสร้างภาพที่มีความละเอียดสูงขึ้นโดยใช้หน่วยความจำ GPU น้อยกว่ามาก (ภาพ 512x512 ควรต้องใช้ VRAM ประมาณ 4GB เท่านั้น) ข้อเสียคือการอนุมานช้ากว่า มาก เมื่อเทียบกับ repo อย่างเป็นทางการที่เป็นค่าเริ่มต้น สำหรับการเปรียบเทียบ: บน RTX 3060 รูปภาพขนาด 512x512 ที่การตั้งค่าเริ่มต้นจะใช้เวลาประมาณ 12 วินาทีในการสร้าง ด้วย !SD_LOW_MEMORY = yes ภาพเดียวกันใช้เวลานานกว่าหนึ่งนาที แนะนำให้ปิดตัวเลือกนี้เว้นแต่คุณจะมี GPU VRAM ต่ำกว่า 8GB หรือต้องการทดลองสร้างภาพขนาดใหญ่ขึ้นก่อนจะขยายขนาด
!USE_UPSCALE = no
ยกระดับภาพโดยอัตโนมัติด้วย Stable Diffusion (ใช่/ไม่ใช่) ใช้ ESRGAN/GFPGAN (ดูการตั้งค่าเพิ่มเติมด้านล่าง)
!UPSCALE_AMOUNT = 2
ปรับขนาดได้เท่าไรเมื่อ !USE_UPSCALE = yes ค่าเริ่มต้นคือ 2.0x; ค่าที่สูงกว่าต้องใช้ VRAM และเวลาที่มากขึ้น
!UPSCALE_FACE_ENH = no
จะใช้ GFPGAN (เทียบกับ ESRGAN เริ่มต้น) หรือไม่เมื่อทำการอัปสเกล GFPGAN ให้ผลลัพธ์ที่ดีที่สุดเมื่อใช้กับใบหน้า แต่อาจให้ผลลัพธ์ที่แย่กว่าเล็กน้อยหากใช้กับวัตถุที่ไม่ใช่ใบหน้า
!UPSCALE_KEEP_ORG = no
เก็บรูปภาพต้นฉบับที่ยังไม่ได้แก้ไขไว้เมื่อทำการอัปสเกล (ใช่/ไม่ใช่) หากตั้งค่าเป็นไม่ (ค่าเริ่มต้น) รูปภาพต้นฉบับจะถูกลบ หากตั้งค่าเป็นใช่ รูปภาพต้นฉบับจะถูกบันทึกในไดเรกทอรีย่อย /ต้นฉบับ ของโฟลเดอร์เอาต์พุตรูปภาพ
!REPEAT = no
เมื่องานทั้งหมดในไฟล์พร้อมท์เสร็จสิ้น ให้รีสตาร์ทที่ด้านบนของไฟล์ (ใช่/ไม่ใช่) ค่าเริ่มต้นคือไม่ ซึ่งจะยุติการดำเนินการเมื่องานทั้งหมดเสร็จสมบูรณ์
สิ่งที่ต้องทำ: เสร็จสิ้นตัวอย่างการตั้งค่าและเพิ่มเคล็ดลับ/ตัวอย่างการใช้งาน เอกสาร Random_art.py