การอัปเดต SD (3)
->เฉพาะข่าวสารที่นี่<- ->ค้นหาการดาวน์โหลดและลิงก์ที่นี่: https://rentry.org/sdgoldmine<- ->ของเก่าที่นี่ https://rentry.org/oldsdupdates<-
ลิงก์การเช่าทั้งหมดจะลงท้ายด้วย '.org' ที่นี่ และสามารถเปลี่ยนเป็น '.co' ได้ นอกจากนี้ ให้ใช้การเรียกดูแบบไม่ระบุตัวตน/แบบส่วนตัวเมื่อเปิดลิงก์ Google ไม่เช่นนั้น คุณจะสูญเสียความเป็นตัวตน / อาจมีบางคนทำร้ายคุณ
ติดต่อ
หากคุณมีข้อมูล/ไฟล์ (เช่น ฝัง) ที่ไม่อยู่ในรายการนี้ มีคำถาม หรือต้องการความช่วยเหลือ โปรดติดต่อฉันพร้อมรายละเอียด
สังคม: การเดินทาง: questianon !!YbTGdICxQOw Discord: malt#6065 Reddit: u/questianon Github: https://github.com/questianon Twitter: https://twitter.com/questianon
- หมายเหตุ คำแนะนำในการอัพเดต ถ้า SD พัง ให้ย้อนกลับในการคอมมิตจนกว่าจะเริ่มทำงานอีกครั้ง คำแนะนำ: * หากบน Windows: 1. นำทางไปยังไดเร็กทอรี webui ผ่านทาง command prompt หรือ git bash a. Git bash: คลิกขวา > git bash ที่นี่ b. พรอมต์คำสั่ง: คลิกที่จุดใน "url" ระหว่างโฟลเดอร์และลูกศรลงแล้วพิมพ์ "command prompt" ค. หากคุณไม่ทราบวิธีดำเนินการ ให้เปิด command prompt พิมพ์ "cd [path to stable-diffusion-webui]" (คุณรับได้โดยคลิกขวาที่โฟลเดอร์ใน "url" หรือกด shift + คลิกขวาที่ โฟลเดอร์ stable-diffusion-webui) 2. git pull
3. pip install -r requirements_versions.txt
* ถ้าบน Linux: 1. ไปที่ไดเร็กทอรี webui 2. source ./venv/bin/activate
หากไม่ได้ผล ให้รัน python -m venv venv
ล่วงหน้า 3. git pull
4. pip install -r requirements.txt
If AUTOMATIC1111's Github goes down, you can try checking his alt repo: https://gitgud.io/AUTOMATIC1111/stable-diffusion-webui
หมายเหตุ: หากฉันไม่อัปเดตภายในหนึ่งเดือน ฉันอาจตัดสินใจเลิกจัดทำเอกสารและติดตาม SD เนื่องจากฉันใช้เวลามากเกินไป หากเป็นเช่นนั้น การอัปเดตครั้งสุดท้ายของฉันจะเป็นการล้างข้อมูลบางอย่างและทำการอัปเดตใหญ่ครั้งสุดท้าย หากต้องการติดตามข่าวสารคุณสามารถใช้
Reddit (แนะนำเนื่องจากทุกอย่างถูกกรองหากคุณเรียงลำดับตามด้านบน): https://www.reddit.com/r/StableDiffusion/ 4chan (ดูที่ความคิดเห็นด้านบนเพื่อดูว่ามีอะไรใหญ่ๆ เพิ่มเข้ามาไหม ดีถ้าคุณต้องการอยู่ สิ่งสำคัญที่สุด): https://boards.4channel.org/g/catalog#s=sdg SDCompendium (ไม่แน่ใจเหมือนกันว่าไซต์นี้ดีแค่ไหน จากการอ่านแบบคร่าวๆ ดูเหมือนว่าค่อนข้างดีและได้รับการดูแล มีรายสัปดาห์(?) และ ข่าวรายเดือน(?) และอื่นๆ อีกมากมาย): https://www.sdcompendium.com/
ขอขอบคุณทุกท่านที่ให้การสนับสนุน repo นี้และการพัฒนา SD โดยทั่วไป ผมขอขอบคุณทุกคนที่มีส่วนร่วมจริงๆ และหวังว่าคุณจะยกระดับ SD ขึ้นไปอีกขั้น
4/11
- หาก AUTO1111 หยุดอัปเดต repo ของเขาตลอดไป และคุณต้องการการอัปเดต คุณสามารถเรียกดูสิ่งนี้เพื่อค้นหารายการใหม่: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/ มีเสถียรภาพการแพร่กระจาย webui
- รายการแนะนำในความคิดเห็น: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/stable-diffusion-webui
- คำร้องของ LAION เพื่อทำให้การวิจัย AI เป็นประชาธิปไตย: https://www.openpetition.eu/petition/online/securing-our-digital-future-a-cern-for-open-source-large-scale-ai-research-and-its -ความปลอดภัย
- Reddit โพสต์ 1: https://www.reddit.com/r/singularity/comments/126j2ok/laion_launches_a_petition_to_democratize_ai/
- Reddit 2: https://www.reddit.com/r/StableDiffusion/comments/126rb5p/laion_launches_a_petition_to_democratize_ai/
- เปิดตัวโมเดล Stable Diffusion v2-1-unCLIP: โดยพื้นฐานแล้วจะใช้อิมเมจอินพุตเป็นพรอมต์คล้ายกับที่ DALL-E 2 ทำ
- Github: https://github.com/Stability-AI/stablediffusion/blob/main/doc/UNCLIP.MD
- บล็อก: https://stability.ai/blog/stable-diffusion-reimagine
- รุ่น : https://huggingface.co/stabilityai/stable-diffusion-2-1-unclip
- การสาธิต: https://clipdrop.co/stable-diffusion-reimagine
- เรดดิต: https://www.reddit.com/r/StableDiffusion/comments/1218dxk/stable_diffusion_v21unclip_model_released/
- รุ่น Kandinsky 2.1: https://github.com/ai-forever/Kandinsky-2
- โมเดลอิมเมจโอเพ่นซอร์สที่ไม่ได้อิงตาม Stable Diffusion สามารถผสมภาพ(?) และรวมภาพได้
- ไซต์ Artgen ที่ฟรีและรวดเร็ว (?) มี Kandinsky: https://dreamlike.art/create
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12c9yos/ive_added_kandinsky_21_to_my_website_its_free_and/
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12bf5k2/kandinsky_21_beats_stable_diffusion_and_allows/
- การแสดง Reddit อื่น: https://www.reddit.com/r/StableDiffusion/comments/12bexho/kandinsky_21_a_new_open_source_texttoimage_model/
- เปิดตัวโมเดลใบหน้า ControlNet: https://huggingface.co/CrucibleAI/ControlNetMediaPipeFace
- เรดดิท: https://www.reddit.com/r/StableDiffusion/comments/1281iva/new_controlnet_face_model/
- ChatGPT "แหกคุก" เพื่อลบข้อ จำกัด (ทำงานได้ดีบน GPT 4): https://github.com/0xk1h0/ChatGPT_DAN
- StyleGAN-T โดย NVIDIA - การสังเคราะห์ข้อความเป็นรูปภาพได้เร็วกว่าการแพร่กระจายที่เสถียร: https://sites.google.com/view/stylegan-t/
- เอกสารสองนาที: https://www.youtube.com/watch?v=qnHbGXmGJCM&t=84s
- การปรับแต่งข้อความเป็นวิดีโอ: https://github.com/ExponentialML/Text-To-Video-Finetuning
- การแสดงข้อความเป็นวิดีโอ RunwayML: https://www.reddit.com/r/StableDiffusion/comments/12gwa4m/movie_scene_generated_with_text2video_by_runwayml/
- เว็บไซต์ที่มีข้อมูลมากมาย + การนำเสนอ: https://research.runwayml.com/gen2
- 1.2B พารามิเตอร์รุ่นวิดีโอ: https://huggingface.co/VideoCrafter/t2v-version-1-1
- สาธิต: https://huggingface.co/spaces/VideoCrafter/VideoCrafter
- เรดดิท: https://www.reddit.com/r/StableDiffusion/comments/12coe0l/new_12b_parameter_text_to_video_model_is_out/
- ความเป็นจริงที่ยอดเยี่ยมสำหรับการนำเสนอวิดีโอ Stable Diffusion (เวิร์กโฟลว์ในความคิดเห็น):
- สุนัข: https://www.reddit.com/r/StableDiffusion/comments/12bdr3p/augmenting_reality_with_stable_diffusion_just/
- สาวเต้น: https://www.reddit.com/r/StableDiffusion/comments/12i9qr7/i_transform_real_person_dancing_to_animation/
- สิ่งที่ชาว tiktokkers จำนวนมากทำกัน (ตรวจสอบความคิดเห็นเกี่ยวกับวิธีการทำ): https://www.reddit.com/r/StableDiffusion/comments/129zh69/slide_diffusion_loopback_wave_script/
- ภาพ SD ไปยัง Blender เพื่อหมุนไปยังภาพอื่นที่ยังคงความลึก: https://www.reddit.com/r/StableDiffusion/comments/12aurpp/i_found_a_way_to_create_different_consistent/
- ผู้สร้างสคริปต์ที่ใช้: https://github.com/thygate/stable-diffusion-webui- allowancemap-script
- วิดีโอที่คล้ายกัน: https://www.reddit.com/r/StableDiffusion/comments/127kagv/stepping_into_places_that_do_not_exist_stable/
- การรวมโทเค็น (gen ที่เร็วกว่า)
- https://github.com/dbolya/tomesd#installation
- https://git.mmaker.moe/mmaker/sd-webui-tome
- เรดดิท: https://www.reddit.com/r/StableDiffusion/comments/1276th7/token_merging_for_fast_stable_diffusion/
- สคริปต์ตัวแจ้งภูมิภาค SD: https://github.com/hako-mikan/sd-webui-regional-prompter
- Image Mixer - รวมแนวคิด สไตล์ และองค์ประกอบ (เช่น Midjourney): https://huggingface.co/lambdalabs/image-mixer
- GUI ตัวแปลง CKPT เป็นเซฟเทนเซอร์: https://github.com/diStyApps/Safe-and-Stable-Ckpt2Safetensors-Conversion-Tool-GUI
3/23
- เปิดตัวโมเดลการแพร่กระจายข้อความโอเพ่นซอร์สเป็นวิดีโอ 1.7 พันล้านพารามิเตอร์
- HuggingFace: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthetic/tree/main
- การสาธิต HuggingFace: https://huggingface.co/spaces/damo-vilab/modelscope-text-to-video-synthetic
- รุ่น: https://modelscope.cn/models/damo/text-to-video-synthetic/summary
- ไฟล์โมเดล: https://modelscope.cn/models/damo/text-to-video-synthetic/files
- ทวิตเตอร์: https://twitter.com/_akhaliq/status/1637321077553606657
- เรดดิท: https://www.reddit.com/r/StableDiffusion/comments/11vbyei/first_open_source_text_to_video_17_billion/
- InstructPix2Pix ใช้กับ NeRF: https://instruct-nerf2nerf.github.io/
- Github: https://github.com/nerfstudio-project/nerfstudio
- เรดดิท: https://www.reddit.com/r/StableDiffusion/comments/11z7rrg/instructnerf2nerf/
- Multidiffusion คอมโบของ Nvidia eDiffi และ SD Paint-with-words: https://multidiffusion.github.io/
- Github: https://github.com/omerbt/MultiDiffusion
- สาธิต: https://huggingface.co/spaces/weizmannscience/multidiffusion-region-based
- มีส่วนขยายใน webui
- การลบแนวคิด SD ออกจากโมเดลการแพร่กระจาย: https://erasing.baulab.info/
- Midjourney v5 เปิดตัวแล้ว
- เปิดตัวโมเดล GAN ขนาดใหญ่: https://mingukkang.github.io/GigaGAN/
- บทความ: https://arxiv.org/abs/2303.05511
- Local ChatGPT พร้อมพารามิเตอร์ 30B สำหรับการใช้งานในเครื่องที่เผยแพร่: https://github.com/antimatter15/alpaca.cpp
- อภิธานศัพท์คำศัพท์ SD เจ๋งๆ: https://sdtools.org/
- เรดดิท: https://www.reddit.com/r/StableDiffusion/comments/11nk957/sdtools_v15/
3/2
- เปิดตัวความเสถียรสำหรับ Blender: https://platform.stability.ai/docs/integrations/blender
- ได้รับการสนับสนุนอย่างเป็นทางการ ใช้งานฟรี และไม่ยุ่งยากในการใช้ Stable Diffusion และรุ่นอื่นๆ ที่กำลังจะมีขึ้นใน Blender
- ต้องการเพียงการเชื่อมต่ออินเทอร์เน็ต (ไม่มีการพึ่งพาหรือ GPU) เพื่อดำเนินการเอฟเฟกต์หลังการประมวลผล AI ด้วยเพียงการเชื่อมต่ออินเทอร์เน็ต
- โพสต์ดิสคอร์ด: https://discord.com/channels/1002292111942635562/1002292398703001601/1080897334201815150
- ดาวน์โหลด Github: https://github.com/Stability-AI/stability-blender-addon-public/releases/
- ส่วนขยายไลบรารีมือ ControlNet เปิดตัว: https://github.com/jexom/sd-webui-deep-lib
- Deflicker ที่ใช้งานได้สำหรับการเผยแพร่ SD ใน 2 สัปดาห์
- เว็บไซต์: https://chenyanglei.github.io/deflicker/
- Github: https://github.com/ChenyangLEI/All-In-One-Deflicker
- การสาธิตกระบวนการโพสต์การแพร่กระจายเพื่อจำลองสิ่งต่าง ๆ เช่นการติดตามรังสี (หรือที่เรียกว่าอินพุตความละเอียดต่ำไปจนถึงเอาต์พุตความละเอียดสูง): https://www.reddit.com/r/StableDiffusion/comments/11gikby/what_i_think_is_the_future_of_realism_in_games/
3/1
- ControlNet อัปเดตเพื่อให้แก้ไขรูปภาพเป้าหมาย (เช่น มือ) โดยมีเวลาเริ่มต้นคำแนะนำล่าช้า
- Github: Mikubill/sd-webui-controlnet#393
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11d7it7/targeted_hand_fix_is_finallly_possible_at/
- ส่วนขยายวิดีโอลูปแบ็คสำหรับ webui ของ A1111 เปิดตัว: https://github.com/fishslot/video_loopback_for_webui
- ปรับปรุงความเสถียรของวิดีโอผ่านการวนกลับและการเบลอชั่วคราว
- มีไว้สำหรับแอนิเมชั่นตัวละครและมักจะต้องใช้กับ Lora หรือ DreamBooth
- Multi-controlnet สำหรับท่าทาง + มือ + การสาธิตรูปภาพ (แก้ไขปัญหามากมายเกี่ยวกับกายวิภาค): https://www.reddit.com/r/StableDiffusion/comments/11c4m4q/one_of_the_best_uses_for_multicontrolnet_from/
- เครื่องปั่น: https://toyxyz.gumroad.com/l/ciojz
- การสาธิตอื่น: https://www.reddit.com/r/StableDiffusion/comments/11e15mw/highly_improved_hand_and_feet_generation_with/
- การสังเคราะห์ภาพแบบมีเงื่อนไข 3D-aware เปิดตัว: https://github.com/dunbar12138/pix2pix3D
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11cudxv/pix2pix3d_3daware_conditional_image_synthetic/
- เกม RPG แบบสามมิติ "Tales of Syn" พัฒนาด้วย Stable Diffusion, GPT3 และซอฟต์แวร์สร้างเกมแบบดั้งเดิม: https://www.reddit.com/r/StableDiffusion/comments/11fb7oq/isometric_rpg_game_tales_of_syn_developed_with/
- บล็อก: https://talesofsyn.com/posts/creating-isometric-rpg-game-wallpapers
- SD ออฟไลน์บนผลิตภัณฑ์ Apple ด้วย ~ 3-4 it/s (ตามที่อ้างสิทธิ์โดย dev) และ controlnet: https://apps.apple.com/gb/app/draw-things-ai-รุ่น/id6444050820
- ChatGPT เผยแพร่ API ของพวกเขาที่ $0.002 ต่อโทเค็น 1,000: https://openai.com/blog/introcing-chatgpt-and-whisper-apis
- คลิปฝึกการนับ: https://arxiv.org/abs/2302.12066
- SD เป็น VR: https://skybox.blockadelabs.com/
- Reddit (มีการสาธิตและสมัครใช้งาน API): https://www.reddit.com/r/StableDiffusion/comments/119l8ra/immersive_diffusion_by_scottie_fox_made_with/
- คำอธิบายว่าทำไม SD ถึงพยายามสร้างภาพที่มืดหรือสว่าง (TLDR จะเป็นค่าเฉลี่ยของระดับแสง): https://www.crosslabs.org/blog/diffusion-with-offset-noise
- รุ่น: https://civitai.com/models/10391/noise-offset-for-true-darkness-in-sd
- การสาธิตไปป์ไลน์เกมสามมิติโดยใช้ SD, Houdini และ multi-controlnet: https://www.reddit.com/r/StableDiffusion/comments/11bkjyo/multicontrolnet_is_a_great_tool_for_creating/
- การสร้างภาพพาโนรามาที่มี VRAM น้อยกว่า 6gb (ยังใช้ไม่ได้กับ webui ของ A1111): https://www.reddit.com/r/StableDiffusion/comments/11a6s7h/you_to_can_create_panorama_images_512x10240_not_a/
- การแพร่กระจายที่เสถียรไปยัง 3D mesh: https://www.reddit.com/r/StableDiffusion/comments/11eiqij/partial_3d_model_from_sd_images_still_in_a_very/
- ปาร์ตี้เรือยอร์ชหลอกลวงใช้ AI ถ่ายรูปโปรโมท (555) https://www.scmp.com/news/people-culture/trending-china/article/3211222/their-fingers-look-fake-deluxe-chinese-yacht- งานปาร์ตี้-สัญญา-วีไอพี-แม่บ้าน-บริการ-จม-หลัง-ประหลาด-เซ็กซี่
- บทช่วยสอนง่ายๆ:
- คอนโทรลเน็ต:
- https://www.reddit.com/r/StableDiffusion/comments/11aks00/onepage_simple_tutorials/
- https://i.redd.it/83p0oq8cx7ka1.png
- (อัปโหลดใหม่) https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- ลอร่า:
- https://www.reddit.com/r/StableDiffusion/comments/11dqs6w/basic_guide_3_how_to_load_and_use_a_lora/
2/26
- Composer ซึ่งเป็นโมเดลการแพร่กระจายที่ควบคุมได้ขนาดใหญ่ (5 พันล้านพารามิเตอร์) โดยที่เอฟเฟกต์ของ SD และคอนโทรลเน็ตถูกรวมเข้าด้วยกันในโมเดลคือ wip AKA การจัดการและการรักษาองค์ประกอบน่าจะดีกว่า
- ข้อมูล: https://damo-vilab.github.io/composer-page/
- Github: https://github.com/damo-vilab/composer
- เรดดิท: https://www.reddit.com/r/StableDiffusion/comments/11bbpse/composer_a_large_5_billion_parameters/
- SD 3.0 ควรมาพร้อมกับการปรับแต่ง RLHF เพื่อการฝึกที่ดีขึ้น
- RLHF = มนุษย์ให้ข้อเสนอแนะว่าอะไรดีและสิ่งที่ไม่ดี จากนั้นเครื่องจักรจะปรับการเรียนรู้ตามสิ่งนั้น
- ChatGPT สร้างขึ้นโดยใช้ RLHF ดังนั้นลองเปรียบเทียบดูว่าโมเดลข้อความอื่นๆ ดีแค่ไหน
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11bvnig/sd_30_will_come_with_rlhf_finetuning_for_better
- การแสดงที่ยอดเยี่ยมของการใช้ Stable DIffusion และเครื่องมืออื่นๆ เพื่อสร้างตอนของอนิเมะด้วย VFX และสิ่งต่างๆ ที่เหมาะสม (ปิดเสียงหากบทสนทนาไม่ถูกใจคุณ): https://youtu.be/GVT3WUa-48Y
- เบื้องหลัง (แสดงเฉพาะภาพรวมของขั้นตอนการทำงาน): https://www.youtube.com/watch?v=_9LX9HSQkWo&t=0s
23/23 (ข่าวนี้และข่าวก่อนหน้าไม่ได้ลงเพราะลืมรหัสแก้ไข)
- โมเดล CLIP โอเพ่นซอร์สใหม่ที่ออกโดย LAION: https://twitter.com/laion_ai/status/1618317487283802113
- TLDR: การจัดหมวดหมู่รูปภาพที่ดีขึ้น -> การสร้างที่ดีขึ้น
- บล็อก: https://laion.ai/blog/giant-openclip/
- หน้ากอด : https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k
- รุ่น Deepfloyd IF ออกมาเร็วๆ นี้ (ถ้าไม่ล่าช้า)
- โอเพ่นซอร์สสามารถสร้างข้อความได้อย่างแม่นยำ
- ตัวอย่าง: https://twitter.com/deepfloydai/status/1610805687361179651
- linktree ของพวกเขา: https://linktr.ee/deepfloyd
- โมเดลข้อความ + รูปภาพที่คล้ายกัน:
- คาร์โล: https://huggingface.co/spaces/kakaobrain/karlo
- รำพึง (โดย Google): https://muse-model.github.io/
- สำนักงานลิขสิทธิ์ของสหรัฐอเมริการะบุว่าภาพที่ผลิตโดย Midjourney สำหรับ "Zarya of the Dawn" ไม่มีสิทธิ์ได้รับการคุ้มครองลิขสิทธิ์ เนื่องจากไม่เป็นไปตามข้อกำหนดขั้นต่ำของการประพันธ์โดยมนุษย์ อย่างไรก็ตาม เรื่องราวและการจัดเรียงภาพในการ์ตูนมีสิทธิ์ได้รับการคุ้มครองลิขสิทธิ์
- กล่าวโดยสรุป ลิขสิทธิ์ภาพ AI (อย่างน้อยในสหรัฐอเมริกา) ยังคงเป็นโคลน
- จดหมายโต้ตอบ: https://fingfx.thomsonreuters.com/gfx/legaldocs/klpygnkyrpg/AI%20COPYRIGHT%20decision.pdf
- โพสต์: https://processmechanics.com/2023/02/22/a-mixed-decision-from-the-us-copyright-office/
- โพสต์ Reddit: https://www.reddit.com/r/StableDiffusion/comments/1196wl6/us_copyright_office_affirms_copyright_of/
- ข้อมูลกฎหมายเพิ่มเติม: https://www.reddit.com/r/bigsleep/comments/uevfch/article_ai_authorship_by_a_law_professor_2020/
2/22
- Huggingface เพิ่มแกลเลอรีโมเดลการแพร่กระจาย: https://huggingface.co/spaces/huggingface-projects/diffusers-gallery
- OpenAI พยายามจำกัดโมเดลภาษาและโครงการโอเพ่นซอร์ส: https://arxiv.org/pdf/2301.04246
- https://twitter.com/harmlessai/status/1624617240225288194
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/111fbvb/closedai_strikes_again
- A1111 เปิดตัวตัวติดตั้งอัตโนมัติสำหรับ webui ของเขา: https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
- InstructPix2Pix สร้างขึ้นใน webui ของ A1111
- IP2P เป็นโมเดลที่สามารถเปลี่ยนแปลงรูปภาพได้โดยใช้ภาษาที่เป็นธรรมชาติ
- https://www.timothybrooks.com/instruct-pix2pix
- ดาวน์โหลดโมเดล: https://huggingface.co/timbrooks/instruct-pix2pix/tree/main
- โพสต์ Reddit พร้อมข้อมูลเพิ่มเติม: https://www.reddit.com/r/StableDiffusion/comments/10tjzmf/instructpix2pix_is_built_straight_into_the/
- Wip ส่วนขยาย ControlNet + Houdini (ซอฟต์แวร์ 3D)
- https://www.reddit.com/r/StableDiffusion/comments/115eax6/im_working_on_api_for_the_a1111_controlnet/
- คู่มือการฝึกอบรม LORA: https://i.imgur.com/J8xXLLy.png
- https://www.reddit.com/r/StableDiffusion/comments/110up3f/i_made_a_lora_training_guide_its_a_colab_version/
- คู่มือ ControlNet: https://i.redd.it/a2ifnjcqj4ja1.png
- อายุ 2 สัปดาห์ แต่ส่วนขยาย ControlNet เปิดตัวแล้ว
- โครงข่ายประสาทเทียมที่เพิ่มการควบคุมโมเดล Stable Diffusion มากขึ้น โดยไม่ต้องรวมหรือต้องการ img2img มากนัก
- อาจเป็นการปรับปรุงที่ใหญ่ที่สุดในการเขียนเรียงความ (แก้ไขมืออย่างมาก!) และ img2img
- ช่วยให้สามารถดึงองค์ประกอบและโพสท่าจากภาพได้
- คุณสามารถผสมผสานสิ่งนี้กับซอฟต์แวร์ท่าโพส 3 มิติ เช่น Daz3D, https://magicposer.com/ และส่วนขยาย OpenPose เพื่อสร้างตัวละครที่มีท่าเฉพาะได้อย่างรวดเร็ว
- มีโปรเซสเซอร์และรุ่นที่แตกต่างกันมากมาย
- ในการอัปเดตล่าสุด คุณสามารถใช้หลายรุ่นพร้อมกันได้ (เปิดใช้งานได้ในการตั้งค่า)
- โมเดลตัวอย่าง: ภาพร่าง - แปลงภาพร่างให้เป็นฐานสำหรับรูปภาพ โดยคงองค์ประกอบพื้นฐานไว้
- มีตัวเลือกในการเดาภาพที่ให้มาและสร้างบางสิ่งโดยไม่ต้องแจ้งให้ทราบ
- คำอธิบายง่ายๆ ของการตั้งค่าและรุ่นทั้งหมด: https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- รุ่นที่ตัดแต่งแล้ว (เหมาะสำหรับคนส่วนใหญ่): https://civitai.com/models/9868/controlnet-pre-trained-difference-models
- โมเดลดั้งเดิม: https://huggingface.co/lllyasviel/ControlNet
- Github ดั้งเดิม: https://github.com/lllyasviel/ControlNet
- A1111 ปลั๊กอิน Github: https://github.com/Mikubil/sd-webui-controlnet
- เปิดตัวปลั๊กอิน OpenPose
- แยกข้อมูลท่าทางออกจากภาพ
- ทำงานร่วมกับคอนโทรลเน็ต
- Github: https://github.com/fkunn1326/openpose-editor
- เข้าร่วมและตื่นเต้น: เปิดตัว Generative Semantic Nursing เพื่อแทรกแซงในระหว่างกระบวนการกำเนิดเพื่อเป็นแนวทางให้โมเดลสร้างโทเค็นทั้งหมดในทันที
- Github: https://github.com/AttendAndExcite/Attend-and-Excite
- บทความ: https://arxiv.org/abs/2301.13826
- เว็บไซต์: https://attendandexcite.github.io/Attend-and-Excite/
- ปลั๊กอิน Photoshop แบบโอเพ่นซอร์สฟรีที่เปิดตัวเมื่อไม่กี่สัปดาห์ก่อน
- Github: https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
- การแสดง Reddit: https://www.reddit.com/r/StableDiffusion/comments/10n3cqo/major_update_automatic1111_photoshop_stable/
- การอัปเดตครั้งใหญ่สำหรับ NKMD GUI เมื่อไม่กี่สัปดาห์ที่ผ่านมา
- โพสต์ Reddit: https://www.reddit.com/r/StableDiffusion/comments/10kbyro/nmkd_stable_diffusion_gui_190_is_out_now/
- Github: https://github.com/n00mkrad/text2image-gui
- Itch.io: https://nmkd.itch.io/t2i-gui/devlog/480628/sd-gui-190-now-with-instructpix2pix
- Oldish: Google ประกาศ Dreamix
- สร้างวิดีโอจากพรอมต์และวิดีโออินพุต
- เก่า: RunwayML ทำงานกับวิดีโอเพื่อแจ้งให้วิดีโอ: https://arxiv.org/abs/2302.03011
- เก่าสุด ๆ แต่มีความเกี่ยวข้องเนื่องจากวิดีโอ: โครงข่ายประสาทเทียมแบบเลเยอร์เพื่อความสอดคล้องในวิดีโอ: https://layered-neural-atlases.github.io/
2/2
- แอนิเมชั่นสั้นของ Netflix ใช้การสร้างภาพเป็นพื้นหลัง
- https://twitter.com/NetflixJP/status/1620357552025538561
- วิดีโอไดนามิกแปลงข้อความเป็น 3 มิติโดยใช้กระดาษ 4 มิติที่เผยแพร่: https://make-a-video3d.github.io/
- สามารถดูได้จากตำแหน่งและมุมของกล้อง
- Text to Live: การแก้ไขรูปภาพและวิดีโอโดยใช้ข้อความ
- https://text2live.github.io/
- AUTOMATIC1111 เปิดตัวส่วนขยายพิกเซลสำหรับ webui ของเขา: https://github.com/AUTOMATIC1111/stable-diffusion-webui-pixelization
- การอัปเดตแบบเก่า: คุณสามารถดูตัวอย่างการฝังได้ใน webui ของ AUTOMATIC1111
- การอัปเดตแบบเก่า: Waifu Diffusion 1.4 เปิดตัวแล้ว
- เครื่องกระจายกลิ่น: https://huggingface.co/hakurei/waifu-diffusion
- ของดอง: https://huggingface.co/hakurei/waifu-diffusion-v1-4
- การอัปเดตเก่า: ส่วนขยายที่รองรับ deep2img เสร็จสมบูรณ์แล้ว
- https://github.com/AnonymousCervine/deep-image-io-for-SDWebui
- อัปเดตเก่าที่ฉันลืมใส่: VoltaML ซึ่งคล้ายกับ SDA เพิ่มความเร็วได้สูงสุดถึง 10 เท่า (จากสิ่งที่ฉันเคยได้ยิน)
- https://github.com/VoltaML/voltaML-fast-stable-diffusion
1/28
- API เร่งการแพร่กระจายที่เสถียร (SDA) ที่ออกโดย SAIL: https://github.com/chavinlo/sda-node
- ใช้ TensorRT เพื่อเร่งความเร็วการสร้างความเร็วบนการ์ด NVIDIA
- สร้างภาพขนาด 512x512 @ 25 ขั้นตอนในครึ่งวินาที
- HTTP API
- ตัวกำหนดเวลาเพิ่มเติมจากตัวกระจาย
- ข้อความแจ้งแบบถ่วงน้ำหนัก (เช่น: "แมว :1.2 AND สุนัข และ นกเพนกวิน :2.2")
- จำนวนขั้นตอนเพิ่มเติมจากตัวกำหนดเวลาแบบเร่ง
- ข้อความแจ้งเพิ่มเติม (ใช้งานไม่ได้ในขณะนี้)
- คุณสามารถทดสอบได้บนเซิร์ฟเวอร์ก่อนที่จะดาวน์โหลด: https://discord.gg/RWbpNGyN
1/23
- คดีฟ้องร้องในชั้นเรียนที่ศิลปินสามคนยื่นฟ้องต่อ Stability AI, Midjourney และ Deviant Art เพื่อการแพร่กระจายที่เสถียร
- ทนายความเดียวกันกับผู้ที่ฟ้อง Github Copilot
- โพสต์ Reddit: https://www.reddit.com/r/StableDiffusion/comments/10bj8jm/class_action_lawsuit_filed_against_stable/
- ฉันพบวิดีโอ Youtube: https://www.youtube.com/watch?v=gv9cdTh8cUo
- เปิดตัวการปรับระดับต่ำเพื่อการปรับแต่งแบบละเอียด (Lora) แบบกระจายข้อความเป็นรูปภาพอย่างรวดเร็ว
- ทางเลือกแทน Dreambooth ไฟล์ 3mb
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1078nsf/version_010_of_lora_released_alternative_to/
- Github: https://github.com/cloneofsimo/lora
- สมุดบันทึก: https://github.com/cloneofsimo/lora/blob/master/scripts/run_inference.ipynb
- ดูเหมือนว่า Safetensors จะกลายเป็นบรรทัดฐานแล้ว และควรจะปลอดภัยสำหรับคุณในการดาวน์โหลดและใช้งาน
- พื้นที่เก็บข้อมูลจุดตรวจขนาดใหญ่พร้อม UI ที่ดีเปิดตัว: https://civitai.com/
- มีตัวเลือกการจัดเรียง ตัวอย่าง ความคิดเห็น ฯลฯ ดูเหมือนว่าจะมาแทนที่ HuggingFace แบบไม่ถูกเซ็นเซอร์ใช่ไหม
- Android APK สำหรับสร้างภาพ 256x256 จาก NovelAI เปิดตัว: https://github.com/EdVince/Stable-Diffusion-NCNN
- อัปเดตต่างๆ ของ ChatGPT: https://openai.com/blog/chatgpt/
- Open Assistant: โดยพื้นฐานแล้ว ChatGPT แบบโอเพ่นซอร์ส
- Github: https://github.com/LAION-AI/Open-Assistant
- (ค่อนข้างเก่าใช่ไหม เกี่ยวข้องเนื่องจาก ChatGPT) โมเดลภาษาเปิดหลายภาษาที่ใหญ่ที่สุด: BLOOM
- https://huggingface.co/bigscience/bloom
- https://bigscience.huggingface.co/blog/bloom
- UI และการอัปเดตการทำงานมากมายสำหรับ webui ของ AUTOMATIC1111 ตรวจสอบให้แน่ใจว่าได้คอมไพล์ pull/update เพื่อรับมัน
- เก็บถาวรโพสต์ฟีดข่าวเก่าแล้ว: https://rentry.org/oldsdupdates
26/11 ถึง 12/12
- Goldmine กำลังได้รับการจัดระเบียบและดูแลจัดการใหม่ การอัปเดตจะออกมาเมื่อดูเป็นระเบียบ
- อัปเดตการติดตั้ง AUTOMATIC1111 ของคุณเพื่อรับการแก้ไขและฟีเจอร์มากมาย
- การอัปเดตเด่นที่ฉันสามารถค้นหาได้:
- การเพิ่ม --gradio-inpaint-tool และ color-sketch: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/5cd5a672f7889dcc018c3873ec557d645ebe35d0
- รวมตู้นิรภัย: AUTOMATIC1111/stable-diffusion-webui#4930
- หากต้องการเปิดใช้งาน SafeTensors สำหรับ GPU จะต้องตั้งค่าตัวแปร
SAFETENSORS_FAST_GPU environment
เป็น 1
- สคริปต์การแปลงชุดอยู่ใน PR
- แปลง: https://huggingface.co/spaces/safetensors/convert
- การอัปเดต/การแก้ไข UI มากมาย
- รองรับ SD 2.0 ที่เหมาะสม (เชื่อมโยงคอมมิตหลัก): https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- การปรับปรุงเครื่องมือต่างๆ (เช่น อัพสเกลเกอร์)
- (ลืมใส่สิ่งนี้ตั้งแต่สร้างมา แต่มันดีจริงๆ) Involvai ทางเลือก all-in-one ของ webui ของ Automatic1111 ได้รับการอัปเดตด้วยสิ่งต่าง ๆ มากมาย: https://github.com/invoid-ai/InovoAI
- Involvai ต้องการ VRAM เพียง ~3.5GB เพื่อสร้างรูปภาพขนาด 512x768 (และน้อยกว่าสำหรับรูปภาพขนาดเล็ก) และเข้ากันได้กับ Windows/Linux/Mac (M1 & M2)
- มีคุณสมบัติเช่น: การทาสีทับ UI, การจัดการการฝัง, แคนวาสแบบครบวงจร (ไม่มีที่สิ้นสุด) และโปรแกรมดูรูปภาพ
- ใช้งานง่ายมาก (UI ธรรมดา) และติดตั้งง่ายสุด ๆ (1 คลิก)
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zabmht/invoidai_22_release_the_unified_canvas/
- Unstable Diffusion บรรลุเป้าหมาย Kickstarter มูลค่า 25,000 ดอลลาร์สหรัฐฯ สำหรับการฝึกอบรม SD 2.0 เพิ่มเติม
- https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd
- เป้าหมาย:
- GPU Cloud ชุมชน: นักวิจัยและผู้สร้างโมเดลชุมชนสามารถขอสิทธิ์การประมวลผลและฝึกฝนโมเดลและชุดข้อมูลของตนเองบนระบบของเรา โดยที่พวกเขาจะเผยแพร่ผลลัพธ์โอเพ่นซอร์ส
- การฝึกอบรมเพิ่มเติมโดยใช้ขั้นตอนและรูปภาพเพิ่มเติม
- กรองเฉพาะเด็กออกเพื่อป้องกันการใช้ในทางที่ผิด
- เปิดตัว Stable Diffusion v2.1: https://stability.ai/blog/stablediffusion2-1-release7-dec-2022
- https://huggingface.co/stabilityai/stable-diffusion-2-1
- ลดความแข็งแกร่งของตัวกรองเพื่อสร้างคนที่ดีขึ้น
- LORA - การปรับระดับต่ำเพื่อการแพร่กระจายข้อความเป็นรูปภาพอย่างรวดเร็ว พื้นที่การปรับแต่งแบบละเอียด (ขึ้นอยู่กับ GitHub จากด้านล่าง): https://huggingface.co/spaces/ysharma/Low-rank-Adaptation
- Dreambooth ด้วยความเร็วสองเท่า
- ขนาดไฟล์โมเดลขนาดเล็กมาก (3-4MB)
- ควรจะดีกว่าการปรับแต่งแบบเต็มตามผู้เขียนพื้นที่ที่เชื่อมโยง
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/ziwwzh/lora_dreambooth_web_ui_finetune_stable_diffusion/
- Dreambooth บน VRAM ขนาด 6 GB และ RAM ต่ำกว่า 16 GB (LORA จากด้านบน): https://github.com/cloneofsimo/lora
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zfqkh3/we_can_now_do_dreambooth_on_a_gpu_with_only_6gb/
- วิธีทำงานบน Windows โดยไม่ต้องใช้ WSL (ใช้ขั้นตอนที่คล้ายกันกับคำแนะนำที่เชื่อมโยง): https://www.reddit.com/r/StableDiffusion/comments/ydip3s/guide_dreambooth_training_with_shivamshriraos/
- StableTuner ซึ่งเป็นเครื่องปรับแต่งการกระจายความเสถียรแบบ GUI ที่ใช้ GUI เปิดตัว: https://github.com/devilismyfriend/StableTuner
- ติดตั้งและใช้งานง่าย GUI ที่เป็นมิตร และตัวปรับแต่ง/เทรนเนอร์แบบออลอินวัน
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zd3xut/stabletuner_a_nononsense_powerful_finetuner_with/
- openOutpaint เปิดตัว: https://github.com/zero01101/openOutpaint
- โอเพ่นซอร์ส โฮสต์เอง ออฟไลน์ น้ำหนักเบา ใช้งานง่ายสำหรับ webui ของ AUTOMATIC1111
- คู่มือ: https://github.com/zero01101/openOutpaint/wiki/SBS-Guided-Example
- คู่มือ: https://github.com/zero01101/openOutpaint/wiki/Manual
- Reddit (มีคุณสมบัติเพิ่มเติมที่ระบุไว้ในความคิดเห็น): https://www.reddit.com/r/StableDiffusion/comments/zi2nr9/openoutpaint_v0095_an_aggressively_open_source/
- OpenAI เปิดตัว ChatGPT โมเดลภาษาสำหรับการสนทนา (ข้อมูลในลิงค์): https://openai.com/blog/chatgpt/
- สาธิต (ต้องมีบัญชี): https://chat.openai.com/
- Automatic1111 เพิ่มการรองรับสำหรับโมเดลความลึก SD
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zi6x66/automatic1111_added_support_for_new_ allowance_model/
- คำแนะนำเกี่ยวกับวิธีการใช้งานโดยผู้ใช้ Reddit:
- ดาวน์โหลด https://huggingface.co/stabilityai/stable-diffusion-2-deep (model) แล้วไปวางไว้ใน models/Stable-diffusion
- ดาวน์โหลด https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-midas-inference.yaml (config) และวางไว้ในโฟลเดอร์เดียวกันกับจุดตรวจสอบ
- เปลี่ยนชื่อการกำหนดค่าเป็น 512-deep-ema.yaml
- Start Stable-Diffusion-Webui,z เลือกจุดตรวจสอบ 512-deep-ema และใช้ img2img ตามปกติ
- เปิดตัวส่วนขยาย deepmap2mask ที่สามารถสร้างมาสก์แผนที่ความลึก 3 มิติ -> img2img ที่ดีกว่าที่ควรจะเป็น
- ดูเหมือนว่าจะเป็นทางเลือกแทนการปรับน้ำหนักมาสก์รูปภาพ
- การฝึกอบรม Dreambooth ตามส่วนขยาย repo ของ Shivam ได้รับการอัปเดตเพื่อรองรับ SD v2.0 (ค้นหาได้ในแท็บส่วนขยาย)
- สคริปต์ในการแปลงโมเดล diffusers เป็น ckpt และ (ในทางกลับกัน?) เปิดตัว: https://github.com/lawfordp2017/diffusers/tree/main/scripts
- AUTOMATIC1111 webui ตอนนี้บน HuggingFace: https://huggingface.co/spaces/camenduru/webui
- อัปเดต GUI เครื่องสแกน Pickle: https://github.com/diStyApps/Stable-Diffusion-Pickle-Scanner-GUI
- การสาธิต Dream Textures (การแพร่กระจายที่เสถียรสำหรับ Blender): https://twitter.com/CarsonKatri/status/1600248599254007810
- Github: https://github.com/carson-katri/dream-textures
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zf2b9k/absolutely_crazy_addon_in_blender_to_add_textures/
- แอป iOS ที่เสถียร Diffusion เปิดตัว: https://www.reddit.com/r/StableDiffusion/comments/z5ndpw/i_made_a_stable_diffusion_for_anime_app_in_your/
- ออฟไลน์?
- App Store: https://apps.apple.com/us/app/waifu-art-ai-local-generator/id6444585505
- เปิดตัวบริการฝึกอบรม Simple Dreambooth (แต่เสียเงิน): https://openart.ai/photobooth
- เปิดตัวเซิร์ฟเวอร์ Stable Diffusion ทั้งหมดในที่เดียว (เสียเงินแต่ดูเหมือนถูกและใช้งานง่าย) เปิดตัว: https://rundiffusion.com/
- https://www.reddit.com/r/StableDiffusion/comments/zea5rd/Thank_you_to_all_the_alpha_testers/
- Waifu Diffusion 1.4 ล่าช้าไปเป็นวันที่ 26 ธันวาคม เนื่องจากปัญหาฐานข้อมูล (ไม่ใช่ SD 2.0)
25/11/25+11/26
- My SD Hypertextbook บทช่วยสอนที่สอนมือใหม่ถึงวิธีการติดตั้งและใช้ Stable Diffusion ได้รับการเผยแพร่แล้ว: https://rentry.org/sdhypertextbook
- SD 2.0 ได้รับการสนับสนุนใน webui ของ AUTOMATIC1111: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- (อัปโหลดใหม่พร้อมข้อมูลใหม่) ดึงคำขอเพื่อรองรับ safetensors ซึ่งเป็นรูปแบบที่ไม่สามารถระบุได้และรวดเร็วเพื่อแทนที่ pytorch: AUTOMATIC1111/stable-diffusion-webui#4930
- Git ชำระเงินคอมมิตนี้
- แปลงโมเดลของคุณภายในเครื่อง: อ่านความคิดเห็นแรกของ PR
- แปลงโมเดลของคุณในระบบคลาวด์: https://colab.research.google.com/drive/1YYzfYZEJTb3dAo9BX6w6eZINIuRsNv6l#scrollTo=ywbCl6ufwzmW