SD-Updates (3)
->Nur Neuigkeiten hier<- ->Downloads und Links finden Sie hier: https://rentry.org/sdgoldmine<- ->Alte Sachen hier https://rentry.org/oldsdupdates<-
Alle Rentry-Links enden hier mit „.org“ und können in „.co“ geändert werden. Verwenden Sie beim Öffnen von Google-Links außerdem das Inkognito-/private Surfen, da Sie sonst Ihre Anonymität verlieren bzw. jemand Sie betrügen könnte
Kontakt
Wenn Sie Informationen/Dateien (z. B. Einbettungen) haben, die nicht in dieser Liste enthalten sind, Fragen haben oder helfen möchten, kontaktieren Sie mich bitte mit Einzelheiten
Soziale Netzwerke: Trip: questianon !!YbTGdICxQOw Discord: malt#6065 Reddit: u/questianon Github: https://github.com/questianon Twitter: https://twitter.com/questianon
!!! Beachten Sie die Update-Anleitung. Wenn SD kaputt geht, gehen Sie in den Commits rückwärts, bis es wieder funktioniert. Anweisungen: * Unter Windows: 1. Navigieren Sie über die Eingabeaufforderung oder Git Bash zum WebUI-Verzeichnis. Git-Bash: Rechtsklick > Git-Bash hier b. Eingabeaufforderung: Klicken Sie auf die Stelle in der „URL“ zwischen dem Ordner und dem Abwärtspfeil und geben Sie „Eingabeaufforderung“ ein. C. Wenn Sie nicht wissen, wie das geht, öffnen Sie die Eingabeaufforderung und geben Sie „cd [Pfad zu Stable-Diffusion-Webui]“ ein (dies erhalten Sie, indem Sie mit der rechten Maustaste auf den Ordner in der „URL“ klicken oder die Umschalttaste gedrückt halten und mit der rechten Maustaste darauf klicken Stable-Diffusion-Webui-Ordner) 2. git pull
3. pip install -r requirements_versions.txt
* Wenn unter Linux: 1. Gehen Sie zum Webui-Verzeichnis 2. source ./venv/bin/activate
a. Wenn dies nicht funktioniert, führen Sie vorher python -m venv venv
aus. 3. git pull
4. pip install -r requirements.txt
If AUTOMATIC1111's Github goes down, you can try checking his alt repo: https://gitgud.io/AUTOMATIC1111/stable-diffusion-webui
Hinweis: Wenn ich innerhalb eines Monats nicht aktualisiere, entscheide ich mich wahrscheinlich, nicht mehr zu dokumentieren und mit SD Schritt zu halten, da es zu viel Zeit in Anspruch nimmt. Wenn das der Fall ist, wird mein letztes Update darin bestehen, einige Dinge zu bereinigen und ein großes letztes Update durchzuführen. Um über Neuigkeiten auf dem Laufenden zu bleiben, können Sie verwenden
Reddit (empfohlen, da alles gefiltert wird, wenn Sie nach oben sortieren): https://www.reddit.com/r/StableDiffusion/ 4chan (Schauen Sie sich die oberen Kommentare an, um zu sehen, ob etwas Großes hinzugefügt wurde. Gut, wenn Sie dabei sein möchten Top of Things): https://boards.4channel.org/g/catalog#s=sdg SDCompendium (ich bin mir nicht ganz sicher, wie gut diese Seite ist, auf den ersten Blick scheint sie ziemlich gut und gepflegt zu sein. Hat wöchentliche(?) und monatliche(?) Nachrichten sowie eine Menge anderer Dinge): https://www.sdcompendium.com/
Ich danke Ihnen allen für Ihre Unterstützung für dieses Repo und die allgemeine Entwicklung von SD. Ich schätze jeden, der dazu beigetragen hat, wirklich und hoffe, dass Sie SD zu neuen Höhen führen werden.
4/11
- Wenn AUTO1111 sein Repo für immer nicht mehr aktualisiert und Sie Aktualisierungen wünschen, können Sie hier nach neuen suchen: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/ stabile-diffusion-webui
- Empfohlene in Kommentaren: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/stable-diffusion-webui
- LAION-Petitionen zur Demokratisierung der KI-Forschung: https://www.openpetition.eu/petition/online/securing-our-digital-future-a-cern-for-open-source-large-scale-ai-research-and-its -Sicherheit
- Reddit-Beitrag 1: https://www.reddit.com/r/singularity/comments/126j2ok/laion_launches_a_petition_to_democratize_ai/
- Reddit 2: https://www.reddit.com/r/StableDiffusion/comments/126rb5p/laion_launches_a_petition_to_democratize_ai/
- Stable Diffusion v2-1-unCLIP-Modell veröffentlicht: Verwendet grundsätzlich das Eingabebild als Eingabeaufforderung, ähnlich wie DALL-E 2
- Github: https://github.com/Stability-AI/stablediffusion/blob/main/doc/UNCLIP.MD
- Blog: https://stability.ai/blog/stable-diffusion-reimagine
- Modell: https://huggingface.co/stabilityai/stable-diffusion-2-1-unclip
- Demo: https://clipdrop.co/stable-diffusion-reimagine
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1218dxk/stable_diffusion_v21unclip_model_released/
- Kandinsky 2.1-Modell: https://github.com/ai-forever/Kandinsky-2
- Open-Source-Bildmodell, das nicht auf Stable Diffusion basiert. Kann Bilder mischen (?) und zusammenführen
- Artgen-Site, die kostenlos und schnell(?) ist, hat Kandinsky: https://dreamlike.art/create
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12c9yos/ive_added_kandinsky_21_to_my_website_its_free_and/
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12bf5k2/kandinsky_21_beats_stable_diffusion_and_allows/
- Ein weiterer Reddit-Showcase: https://www.reddit.com/r/StableDiffusion/comments/12bexho/kandinsky_21_a_new_open_source_texttoimage_model/
- ControlNet-Gesichtsmodell veröffentlicht: https://huggingface.co/CrucibleAI/ControlNetMediaPipeFace
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1281iva/new_controlnet_face_model/
- ChatGPT „Jailbreak“ zum Entfernen von Einschränkungen (funktioniert gut auf GPT 4): https://github.com/0xk1h0/ChatGPT_DAN
- StyleGAN-T von NVIDIA – Schnellere Text-zu-Bild-Synthese als stabile Diffusion: https://sites.google.com/view/stylegan-t/
- Zweiminütige Vorträge: https://www.youtube.com/watch?v=qnHbGXmGJCM&t=84s
- Feinabstimmung von Text zu Video: https://github.com/ExponentialML/Text-To-Video-Finetuning
- RunwayML-Text-zu-Video-Showcase: https://www.reddit.com/r/StableDiffusion/comments/12gwa4m/movie_scene_generated_with_text2video_by_runwayml/
- Website mit jeder Menge Informationen und Showcases: https://research.runwayml.com/gen2
- 1.2B-Parameter-Videomodell: https://huggingface.co/VideoCrafter/t2v-version-1-1
- Demo: https://huggingface.co/spaces/VideoCrafter/VideoCrafter
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12coe0l/new_12b_parameter_text_to_video_model_is_out/
- Coole Reality-to-Stable-Diffusion-Video-Showcases (Workflow in Kommentaren):
- Hund: https://www.reddit.com/r/StableDiffusion/comments/12bdr3p/augmenting_reality_with_stable_diffusion_just/
- Mädchen tanzen: https://www.reddit.com/r/StableDiffusion/comments/12i9qr7/i_transform_real_person_dancing_to_animation/
- Das Loopback-Ding, das viele Tiktokker machen (siehe Kommentare, um zu erfahren, wie es geht): https://www.reddit.com/r/StableDiffusion/comments/129zh69/slide_diffusion_loopback_wave_script/
- SD-Bild an Blender senden, um es zu einem anderen Bild zu drehen, das die Tiefe beibehält: https://www.reddit.com/r/StableDiffusion/comments/12aurpp/i_found_a_way_to_create_different_consistent/
- Verwendeter Skriptersteller: https://github.com/thygate/stable-diffusion-webui- Depthmap-script
- Ähnliches Video: https://www.reddit.com/r/StableDiffusion/comments/127kagv/stepping_into_places_that_do_not_exist_stable/
- Token-Zusammenführung (schnellere Generationen)
- https://github.com/dbolya/tomesd#installation
- https://git.mmaker.moe/mmaker/sd-webui-tome
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1276th7/token_merging_for_fast_stable_diffusion/
- SD-Regional-Prompter-Skript: https://github.com/hako-mikan/sd-webui-regional-prompter
- Image Mixer – Konzepte, Stile und Kompositionen kombinieren (wie Midjourney): https://huggingface.co/lambdalabs/image-mixer
- CKPT-zu-Safetensors-Konverter-GUI: https://github.com/diStyApps/Safe-and-Stable-Ckpt2Safetensors-Conversion-Tool-GUI
23.03
- Open-Source-Text-zu-Video-Diffusionsmodell mit 1,7 Milliarden Parametern veröffentlicht
- HuggingFace: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthesize/tree/main
- HuggingFace-Demo: https://huggingface.co/spaces/damo-vilab/modelscope-text-to-video-synthesize
- Modell: https://modelscope.cn/models/damo/text-to-video-synthesize/summary
- Modelldateien: https://modelscope.cn/models/damo/text-to-video-synthesize/files
- Twitter: https://twitter.com/_akhaliq/status/1637321077553606657
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11vbyei/first_open_source_text_to_video_17_billion/
- InstructPix2Pix angewendet auf NeRFs: https://instruct-nerf2nerf.github.io/
- Github: https://github.com/nerfstudio-project/nerfstudio
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11z7rrg/instructnerf2nerf/
- Multidiffusion, eine Kombination aus Nvidia eDiffi und SD Paint-with-Words: https://multidiffusion.github.io/
- Github: https://github.com/omerbt/MultiDiffusion
- Demo: https://huggingface.co/spaces/weizmannscience/multidiffusion-region-based
- Es gibt eine Erweiterung dafür im Webui
- Löschen von SD-Konzepten aus Diffusionsmodellen: https://erasing.baulab.info/
- Midjourney v5 veröffentlicht
- GAN-Modell im großen Maßstab veröffentlicht: https://mingukkang.github.io/GigaGAN/
- Papier: https://arxiv.org/abs/2303.05511
- Lokales ChatGPT mit 30B Parametern für die lokale Verwendung veröffentlicht: https://github.com/antimatter15/alpaca.cpp
- Cooles Glossar mit SD-Begriffen: https://sdtools.org/
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11nk957/sdtools_v15/
3/2
- Stabilität für Blender veröffentlicht: https://platform.stability.ai/docs/integrations/blender
- Offiziell unterstützt, kostenlos nutzbar, problemlose Nutzung von Stable Diffusion und anderen kommenden Modellen in Blender
- Erfordert lediglich eine Internetverbindung (keine Abhängigkeiten oder GPU), um KI-Nachbearbeitungseffekte nur mit einer Internetverbindung durchzuführen
- Discord-Beitrag: https://discord.com/channels/1002292111942635562/1002292398703001601/1080897334201815150
- Github-Download: https://github.com/Stability-AI/stability-blender-addon-public/releases/
- ControlNet stellt Bibliothekserweiterung bereit: https://github.com/jexom/sd-webui- Depth-lib
- Deflicker, der für SD-Releases in 2 Wochen funktioniert
- Website: https://chenyanglei.github.io/deflicker/
- Github: https://github.com/ChenyangLEI/All-In-One-Deflicker
- Demo des Diffusions-Postprozesses zur Emulation von Dingen wie Raytracing (auch bekannt als niedrigaufgelöste Eingabe zu hochauflösender Ausgabe): https://www.reddit.com/r/StableDiffusion/comments/11gikby/what_i_think_is_the_future_of_realism_in_games/
3/1
- ControlNet wurde aktualisiert, um gezielte Bildkorrekturen (z. B. Hände) durch eine verzögerte Startzeit der Führung zu ermöglichen
- Github: Mikubill/sd-webui-controlnet#393
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11d7it7/targeted_hand_fix_is_finallly_possible_at/
- Video-Loopback-Erweiterung für A1111s Webui veröffentlicht: https://github.com/fishslot/video_loopback_for_webui
- Verbessert die Stabilität des Videos durch Loopback und zeitliche Unschärfe
- Gedacht für Charakteranimationen und muss normalerweise mit Lora oder DreamBooth verwendet werden
- Multi-Controlnet für Pose + Hände + Bilddemo (behebt viele Probleme mit der Anatomie): https://www.reddit.com/r/StableDiffusion/comments/11c4m4q/one_of_the_best_uses_for_multicontrolnet_from/
- Mixer-Rig: https://toyxyz.gumroad.com/l/ciojz
- Eine weitere Demo: https://www.reddit.com/r/StableDiffusion/comments/11e15mw/highly_improved_hand_and_feet_generation_with/
- 3D-fähige bedingte Bildsynthese veröffentlicht: https://github.com/dunbar12138/pix2pix3D
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11cudxv/pix2pix3d_3daware_conditional_image_synthesize/
- Isometrisches RPG-Spiel „Tales of Syn“, entwickelt mit Stable Diffusion, GPT3 und traditioneller Spieleentwicklungssoftware: https://www.reddit.com/r/StableDiffusion/comments/11fb7oq/isometrische_rpg_game_tales_of_syn_developed_with/
- Blog: https://talesofsyn.com/posts/creating-isometrische-rpg-game-backgrounds
- Offline-SD auf Apple-Produkten mit ~3-4 It/s (wie vom Entwickler behauptet) und Controlnet: https://apps.apple.com/gb/app/draw-things-ai-generation/id6444050820
- ChatGPT veröffentlicht seine API für 0,002 $ pro 1.000 Token: https://openai.com/blog/introducing-chatgpt-and-whisper-apis
- Trainings-CLIP zum Zählen: https://arxiv.org/abs/2302.12066
- SD zu VR: https://skybox.blockadelabs.com/
- Reddit (hat Demo und Anmeldung für API): https://www.reddit.com/r/StableDiffusion/comments/119l8ra/immersive_diffusion_by_scottie_fox_made_with/
- Erklärung, warum SD Schwierigkeiten hat, dunkle oder helle Bilder zu erstellen (obwohl es die Lichtverhältnisse mittelt): https://www.crosslabs.org/blog/diffusion-with-offset-noise
- Modell: https://civitai.com/models/10391/noise-offset-for-true-darkness-in-sd
- Isometrische Game-Pipeline-Demo mit SD, Houdini und Multi-Controlnet: https://www.reddit.com/r/StableDiffusion/comments/11bkjyo/multicontrolnet_is_a_great_tool_for_creating/
- Panoramabilder mit weniger als 6 GB VRAM erstellen (funktioniert noch nicht mit der Webui des A1111): https://www.reddit.com/r/StableDiffusion/comments/11a6s7h/you_to_can_create_panorama_images_512x10240_not_a/
- Stabile Diffusion zum 3D-Netz: https://www.reddit.com/r/StableDiffusion/comments/11eiqij/partial_3d_model_from_sd_images_still_in_a_very/
- Betrügerische Yachtparty nutzt KI für Werbebilder (lol): https://www.scmp.com/news/people-culture/trending-china/article/3211222/their-fingers-look-fake-deluxe-chinese-yacht- Party-versprechend-VIP-Zimmermädchen-Service-versunken-nach-freaky-sexy
- Einfache Tutorials:
- Kontrollnetz:
- https://www.reddit.com/r/StableDiffusion/comments/11aks00/onepage_simple_tutorials/
- https://i.redd.it/83p0oq8cx7ka1.png
- (erneut hochladen) https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- LORA:
- https://www.reddit.com/r/StableDiffusion/comments/11dqs6w/basic_guide_3_how_to_load_and_use_a_lora/
26.02
- Composer ist ein großes (5 Milliarden Parameter) steuerbares Diffusionsmodell, bei dem die Auswirkungen von SD und Controlnet im Modell kombiniert werden. Auch das Manipulieren und Beibehalten der Komposition sollte besser sein.
- Infos: https://damo-vilab.github.io/composer-page/
- Github: https://github.com/damo-vilab/composer
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11bbpse/composer_a_large_5_billion_parameters/
- SD 3.0 sollte mit RLHF-Feinabstimmung für ein besseres Training ausgestattet sein
- RLHF = Menschen geben Feedback darüber, was gut ist und was nicht, und die Maschine passt ihr Lernen darauf an
- ChatGPT wurde mit RLHF erstellt. Vergleichen Sie also, wie gut es mit anderen Textmodellen ist
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11bvnig/sd_30_will_come_with_rlhf_finetuning_for_better
- Ziemlich coole Demonstration der Verwendung von Stable DIffusion und anderen Tools zum Erstellen einer Anime-Episode mit den richtigen VFX und so weiter (schalten Sie den Ton stumm, wenn der Dialog nicht Ihrem Geschmack entspricht): https://youtu.be/GVT3WUa-48Y
- Hinter den Kulissen (zeigt nur einen Überblick über den Workflow): https://www.youtube.com/watch?v=_9LX9HSQkWo&t=0s
23.02. (Diese und frühere Nachrichten wurden nicht veröffentlicht, weil ich den Bearbeitungscode vergessen habe)
- Neues Open-Source-CLIP-Modell von LAION veröffentlicht: https://twitter.com/laion_ai/status/1618317487283802113
- TLDR: bessere Klassifizierung von Bildern -> bessere Generierung
- Blog: https://laion.ai/blog/giant-openclip/
- Huggingface: https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k
- Deepfloyd IF-Modell erscheint bald (sofern es keine Verzögerung gibt)
- Open Source, kann Text präzise generieren
- Beispiel: https://twitter.com/deepfloydai/status/1610805687361179651
- Ihr Linktree: https://linktr.ee/deepfloyd
- Ähnliche Text- und Bildmodelle:
- Karlo: https://huggingface.co/spaces/kakaobrain/karlo
- Muse (von Google): https://muse-model.github.io/
- Das US Copyright Office gibt an, dass von Midjourney für „Zarya of the Dawn“ produzierte Bilder nicht urheberrechtlich geschützt sind, da sie nicht die Mindestanforderungen an die menschliche Urheberschaft erfüllen. Die Geschichte und Anordnung der Bilder im Comic ist jedoch urheberrechtlich geschützt
- Kurz gesagt, das Urheberrecht an KI-Bildern ist (zumindest in den USA) immer noch unklar.
- Korrespondenzbrief: https://fingfx.thomsonreuters.com/gfx/legaldocs/klpygnkyrpg/AI%20COPYRIGHT%20decision.pdf
- Beitrag: https://processmechanics.com/2023/02/22/a-mixed-decision-from-the-us-copyright-office/
- Reddit-Beitrag: https://www.reddit.com/r/StableDiffusion/comments/1196wl6/us_copyright_office_affirms_copyright_of/
- Zusätzliche rechtliche Informationen: https://www.reddit.com/r/bigsleep/comments/uevfch/article_ai_authorship_by_a_law_professor_2020/
22.02
- Huggingface fügt eine Diffusionsmodellgalerie hinzu: https://huggingface.co/spaces/huggingface-projects/diffusers-gallery
- OpenAI versucht, Sprachmodelle und Open-Source-Projekte einzuschränken: https://arxiv.org/pdf/2301.04246.
- https://twitter.com/harmlessai/status/1624617240225288194
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/111fbvb/closedai_strikes_again
- A1111 hat einen automatischen Installer für sein Webui veröffentlicht: https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
- InstructPix2Pix ist in die Web-Benutzeroberfläche des A1111 integriert
- IP2P ist ein Modell, das mithilfe von Eingabeaufforderungen in natürlicher Sprache Änderungen an einem Bild vornehmen kann
- https://www.timothybrooks.com/instruct-pix2pix
- Modell-Download: https://huggingface.co/timbrooks/instruct-pix2pix/tree/main
- Reddit-Beitrag mit weiteren Informationen: https://www.reddit.com/r/StableDiffusion/comments/10tjzmf/instructpix2pix_is_built_straight_into_the/
- ControlNet + Houdini (3D-Software)-Erweiterung wip
- https://www.reddit.com/r/StableDiffusion/comments/115eax6/im_working_on_api_for_the_a1111_controlnet/
- LORA-Trainingsleitfaden: https://i.imgur.com/J8xXLLy.png
- https://www.reddit.com/r/StableDiffusion/comments/110up3f/i_made_a_lora_training_guide_its_a_colab_version/
- ControlNet-Anleitung: https://i.redd.it/a2ifnjcqj4ja1.png
- 2 Wochen alt, aber die ControlNet-Erweiterung ist veröffentlicht
- Neuronales Netzwerk, das mehr Kontrolle über Stable Diffusion-Modelle bietet, ohne dass eine Zusammenführung erforderlich ist oder viel img2img erforderlich ist
- Wahrscheinlich die größte Verbesserung bei der Eingabeaufforderung für Kompositionen (behebt die Hände erheblich!) und img2img
- Ermöglicht das Extrahieren von Kompositionen und Posen aus Bildern
- Sie können dies mit 3D-Posensoftware wie Daz3D, https://magicposer.com/ und der OpenPose-Erweiterung kombinieren, um schnell Charaktere mit bestimmten Posen zu erstellen
- Verfügt über viele verschiedene Präprozessoren und Modelle
- Im letzten Update können Sie mehrere Modelle gleichzeitig verwenden (aktivieren Sie dies in den Einstellungen).
- Beispielmodell: Skizze – Wandelt eine Skizze in eine Basis für ein Bild um und behält dabei die Grundkomposition bei
- Bietet die Möglichkeit, das bereitgestellte Bild zu erraten und auch ohne Aufforderung etwas zu generieren
- Einfache Erklärung aller Einstellungen und Modelle: https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- Beschnittene Modelle (gut für die meisten Menschen): https://civitai.com/models/9868/controlnet-pre-trained-difference-models
- Originalmodelle: https://huggingface.co/lllyasviel/ControlNet
- Ursprünglicher Github: https://github.com/lllyasviel/ControlNet
- A1111-Plugin Github: https://github.com/Mikubill/sd-webui-controlnet
- OpenPose-Plugin veröffentlicht
- Extrahieren Sie Poseninformationen aus Bildern
- Funktioniert mit ControlNet
- Github: https://github.com/fkunn1326/openpose-editor
- Attend-and-Excite: Führt Generative Semantic Nursing ein, um während des generativen Prozesses einzugreifen und das Modell bei der Generierung aller Token in einer Eingabeaufforderung anzuleiten
- Github: https://github.com/AttendAndExcite/Attend-and-Excite
- Papier: https://arxiv.org/abs/2301.13826
- Website: https://attendandexcite.github.io/Attend-and-Excite/
- Kostenloses und quelloffenes Photoshop-Plugin, das vor einigen Wochen veröffentlicht wurde
- Github: https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
- Reddit-Showcase: https://www.reddit.com/r/StableDiffusion/comments/10n3cqo/major_update_automatic1111_photoshop_stable/
- Großes Update für die NKMD-GUI von vor ein paar Wochen
- Reddit-Beitrag: https://www.reddit.com/r/StableDiffusion/comments/10kbyro/nmkd_stable_diffusion_gui_190_is_out_now/
- Github: https://github.com/n00mkrad/text2image-gui
- Itch.io: https://nmkd.itch.io/t2i-gui/devlog/480628/sd-gui-190-now-with-instructpix2pix
- Altmodisch: Google kündigt Dreamix an
- Erzeugt Videos aus einer Eingabeaufforderung und einem Eingabevideo
- Alt: RunwayML arbeitet an einem Video, um zum Video aufzufordern: https://arxiv.org/abs/2302.03011
- Super alt, aber wegen Video relevant: Geschichtete neuronale Netze für Konsistenz im Video: https://layered-neural-atlases.github.io/
2/2
- Netflix-Kurzanimationen nutzen die Bildgenerierung für ihre Hintergründe
- https://twitter.com/NetflixJP/status/1620357552025538561
- Text zu dynamischem 3D-Video mit 4D-Papier veröffentlicht: https://make-a-video3d.github.io/
- Kann von jedem Kamerastandort und -winkel aus betrachtet werden
- Text to Live: Bild- und Videobearbeitung mit Text
- https://text2live.github.io/
- AUTOMATIC1111 veröffentlicht eine Pixelisierungserweiterung für sein Webui: https://github.com/AUTOMATIC1111/stable-diffusion-webui-pixelization
- Älteres Update: Sie können Einbettungen in der Weboberfläche von AUTOMATIC1111 in der Vorschau anzeigen
- Älteres Update: Waifu Diffusion 1.4 veröffentlicht
- Diffusoren: https://huggingface.co/hakurei/waifu-diffusion
- Gurke: https://huggingface.co/hakurei/waifu-diffusion-v1-4
- Altes Update: Erweiterung, die die Depth2img-Unterstützung vervollständigt, veröffentlicht
- https://github.com/AnonymousCervine/ Depth-image-io-for-SDWebui
- Altes Update, das ich vergessen habe einzuschließen: VoltaML erhöht, ähnlich wie SDA, die Geschwindigkeit um das bis zu Zehnfache (soweit ich gehört habe)
- https://github.com/VoltaML/voltaML-fast-stable-diffusion
1/28
- Stable Diffusion Accelerated API (SDA), veröffentlicht von SAIL: https://github.com/chavinlo/sda-node
- Verwendet TensorRT, um die Generierungsgeschwindigkeit auf NVIDIA-Karten zu beschleunigen
- Erzeugen Sie in einer halben Sekunde ein 512x512-Bild mit 25 Schritten
- HTTP-API
- Weitere Planer von Diffusoren
- Gewichtete Eingabeaufforderungen (z. B. „eine Katze: 1,2 UND ein Hund UND ein Pinguin: 2,2“)
- Mehr Schrittzahlen durch beschleunigte Planer
- Erweiterte Eingabeaufforderungen (im Moment defekt)
- Sie können es auf ihrem Server testen, bevor Sie es herunterladen: https://discord.gg/RWbpNGyN
1/23
- Sammelklage von drei Künstlern gegen Stability AI, Midjourney und Deviant Art for Stable Diffusion eingereicht
- Dieselben Anwälte wie diejenigen, die Github Copilot verklagt haben
- Reddit-Beitrag: https://www.reddit.com/r/StableDiffusion/comments/10bj8jm/class_action_lawsuit_filed_against_stable/
- Youtube-Video, das ich gefunden habe: https://www.youtube.com/watch?v=gv9cdTh8cUo
- Low-Rank-Anpassung zur schnellen Feinabstimmung der Text-zu-Bild-Diffusion (Lora) veröffentlicht
- Alternative zu Dreambooth, 3 MB-Dateien
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1078nsf/version_010_of_lora_released_alternative_to/
- Github: https://github.com/cloneofsimo/lora
- Notizbuch: https://github.com/cloneofsimo/lora/blob/master/scripts/run_inference.ipynb
- Safetensoren scheinen mittlerweile die Norm zu sein, und Sie sollten sie sicher herunterladen und verwenden können.
- Großes Checkpoint-Repository mit schöner Benutzeroberfläche veröffentlicht: https://civitai.com/
- Verfügt über Sortieroptionen, Vorschauen, Kommentare usw. Scheint ein unzensierter Ersatz für HuggingFace zu sein?
- Android APK zum Generieren von 256x256-Bildern von NovelAI veröffentlicht: https://github.com/EdVince/Stable-Diffusion-NCNN
- Verschiedene Updates für ChatGPT: https://openai.com/blog/chatgpt/
- Open Assistant: Grundsätzlich Open-Source-ChatGPT
- Github: https://github.com/LAION-AI/Open-Assistant
- (Etwas alt?, relevant wegen ChatGPT) Größtes offenes mehrsprachiges Sprachmodell: BLOOM
- https://huggingface.co/bigscience/bloom
- https://bigscience.huggingface.co/blog/bloom
- Viele UI- und Funktionsupdates für die Web-Benutzeroberfläche von AUTOMATIC1111. Stellen Sie sicher, dass Sie git pull/update verwenden, um sie zu erhalten
- Alte Newsfeed-Beiträge wurden archiviert: https://rentry.org/oldsdupdates
26.11. bis 12.12
- Goldmine wird neu organisiert und kuratiert. Das Update wird veröffentlicht, sobald es organisiert aussieht
- Aktualisieren Sie Ihre AUTOMATIC1111-Installation für viele Korrekturen und Funktionen
- Bemerkenswerte Updates, die ich finden kann:
- Hinzufügen von --gradio-inpaint-tool und color-sketch: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/5cd5a672f7889dcc018c3873ec557d645ebe35d0
- Safetensors zusammengeführt: AUTOMATIC1111/stable-diffusion-webui#4930
- Um SafeTensors für GPU zu aktivieren, muss die
SAFETENSORS_FAST_GPU environment
auf 1
gesetzt werden - Das Batch-Konvertierungsskript befindet sich in der PR
- Konvertieren: https://huggingface.co/spaces/safetensors/convert
- Eine Reihe von UI-Updates/Korrekturen
- Richtige SD 2.0-Unterstützung (primäres Commit verlinkt): https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- Verbesserungen für verschiedene Tools (wie Upscaler)
- (Ich habe vergessen, dies seit seiner Erstellung anzugeben, aber es ist wirklich gut) InvokeAI, eine All-in-One-Alternative zur Web-Benutzeroberfläche von Automatic1111, wurde mit vielen Dingen aktualisiert: https://github.com/invoke-ai/InvokeAI
- InvokeAI benötigt nur ~3,5 GB VRAM, um ein 512x768-Bild zu generieren (und weniger für kleinere Bilder) und ist mit Windows/Linux/Mac (M1 und M2) kompatibel.
- Verfügt über Funktionen wie: UI Outpainting, Embedding Management, eine einheitliche (unendliche) Leinwand und einen Bildbetrachter
- Sehr benutzerfreundlich (einfache Benutzeroberfläche) und supereinfach zu installieren (1-Klick)
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zabmht/invokeai_22_release_the_unified_canvas/
- Unstable Diffusion erreicht das Kickstarter-Ziel von 25.000 US-Dollar für die weitere Schulung von SD 2.0
- https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd
- Ziele:
- Community GPU Cloud: Forscher und Community-Modellbauer können Rechenzuschüsse beantragen und ihre eigenen Modelle und Datensätze auf unserem System trainieren, sofern sie die Ergebnisse als Open Source veröffentlichen
- Weiteres Training mit mehr Schritten und Bildern
- Nur Kinder herausgefiltert, um Missbrauch vorzubeugen
- Stable Diffusion v2.1 veröffentlicht: https://stability.ai/blog/stablediffusion2-1-release7-dec-2022
- https://huggingface.co/stabilityai/stable-diffusion-2-1
- Die Stärke der Filter wurde reduziert, um die Generierung besserer Personen zu ermöglichen
- LORA – Low-Rank-Anpassung für schnelle Text-zu-Bild-Diffusion. Feinabstimmung des Raums (basierend auf dem Github von unten): https://huggingface.co/spaces/ysharma/Low-rank-Adaptation
- Dreambooth mit doppelter Geschwindigkeit
- Super kleine Modelldateigrößen (3–4 MB)
- Laut Autor des verlinkten Bereichs angeblich besser als eine vollständige Feinabstimmung
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/ziwwzh/lora_dreambooth_web_ui_finetune_stable_diffusion/
- Dreambooth mit 6 GB VRAM und weniger als 16 GB RAM veröffentlicht (LORA von oben): https://github.com/cloneofsimo/lora
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zfqkh3/we_can_now_do_dreambooth_on_a_gpu_with_only_6gb/
- So führen Sie es nativ unter Windows ohne WSL aus (verwendet ähnliche Schritte wie in der verlinkten Anleitung): https://www.reddit.com/r/StableDiffusion/comments/ydip3s/guide_dreambooth_training_with_shivamshriraos/
- StableTuner, ein GUI-basierter Stable Diffusion Finetuner, veröffentlicht: https://github.com/devilismyfriend/StableTuner
- Einfach zu installieren und zu verwenden, benutzerfreundliche Benutzeroberfläche und All-in-One-Feintuner/Trainer
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zd3xut/stabletuner_a_nononsense_powerful_finetuner_with/
- openOutpaint veröffentlicht: https://github.com/zero01101/openOutpaint
- Open Source, selbst gehostet, offline, leichtgewichtig, benutzerfreundliches Outpainting für die Web-Benutzeroberfläche von AUTOMATIC1111
- Anleitung: https://github.com/zero01101/openOutpaint/wiki/SBS-Guided-Example
- Handbuch: https://github.com/zero01101/openOutpaint/wiki/Manual
- Reddit (weitere Funktionen sind in den Kommentaren aufgeführt): https://www.reddit.com/r/StableDiffusion/comments/zi2nr9/openoutpaint_v0095_an_aggressively_open_source/
- OpenAI veröffentlicht ChatGPT, ein Sprachmodell für den Dialog (Infos im Link): https://openai.com/blog/chatgpt/
- Demo (Konto erforderlich): https://chat.openai.com/
- Automatic1111 fügt Unterstützung für das SD-Tiefenmodell hinzu
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zi6x66/automatic1111_added_support_for_new_third_model/
- Anweisungen zur Verwendung durch reddit-Benutzer:
- Laden Sie https://huggingface.co/stabilityai/stable-diffusion-2- Depth (Modell) herunter und platzieren Sie es in models/Stable-diffusion
- Laden Sie https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-midas-inference.yaml (config) herunter und platzieren Sie es im selben Ordner wie der Prüfpunkt
- Benennen Sie die Konfiguration in 512- Depth-ema.yaml um
- Starten Sie Stable-Diffusion-Webui, wählen Sie den 512-Depth-EMA-Prüfpunkt aus und verwenden Sie img2img wie gewohnt.
- Depthmap2mask-Erweiterung veröffentlicht, die 3D-Tiefenkartenmasken erstellen kann -> angeblich besser img2img
- Scheint eine Alternative zur Konditionierung des Bildmaskengewichts zu sein
- Dreambooth-Schulung basierend auf Shivams Repo-Erweiterung, aktualisiert zur Unterstützung von SD v2.0 (zu finden auf der Registerkarte „Erweiterungen“)
- Skript zum Konvertieren von Diffusormodellen in ckpt und (umgekehrt?) veröffentlicht: https://github.com/lawfordp2017/diffusers/tree/main/scripts
- AUTOMATIC1111 Webui jetzt auf HuggingFace: https://huggingface.co/spaces/camenduru/webui
- Pickle-Scanner-GUI aktualisiert: https://github.com/diStyApps/Stable-Diffusion-Pickle-Scanner-GUI
- Dream Textures (Stabile Diffusion für Blender) Demo: https://twitter.com/CarsonKatri/status/1600248599254007810
- Github: https://github.com/carson-katri/dream-textures
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zf2b9k/absolutely_crazy_addon_in_blender_to_add_textures/
- Stable Diffusion IOS-App veröffentlicht: https://www.reddit.com/r/StableDiffusion/comments/z5ndpw/i_made_a_stable_diffusion_for_anime_app_in_your/
- Offline?
- App Store: https://apps.apple.com/us/app/waifu-art-ai-local-generator/id6444585505
- Einfacher Dreambooth-Schulungsdienst (kostet aber Geld) veröffentlicht: https://openart.ai/photobooth
- All-in-One-Stable-Diffusion-Server (kostet Geld, scheint aber billig und einfach zu verwenden) veröffentlicht: https://rundiffusion.com/
- https://www.reddit.com/r/StableDiffusion/comments/zea5rd/thank_you_to_all_the_alpha_testers/
- Waifu Diffusion 1.4 wird aufgrund eines Datenbankproblems auf den 26. Dezember verschoben (nicht SD 2.0).
25.11.+26.11
- Mein SD Hypertextbook, ein Tutorial, das einem Neuling die Installation und Verwendung von Stable Diffusion beibringt, ist veröffentlicht: https://rentry.org/sdhypertextbook
- SD 2.0 wird im Webui von AUTOMATIC1111 unterstützt: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- (Erneut hochladen mit neuen Informationen) Pull-Anfrage zur Unterstützung von Safetensors, dem nicht auswählbaren und schnellen Format als Ersatz für Pytorch: AUTOMATIC1111/stable-diffusion-webui#4930
- Git checkt diesen Commit aus
- Konvertieren Sie Ihre Modelle lokal: Lesen Sie den ersten Kommentar des PR
- Konvertieren Sie Ihre Modelle in der Cloud: https://colab.research.google.com/drive/1YYzfYZEJTb3dAo9BX6w6eZINIuRsNv6l#scrollTo=ywbCl6ufwzmW