Mises à jour SD (3)
->Uniquement les actualités ici<- ->Trouvez des téléchargements et des liens ici : https://rentry.org/sdgoldmine<- ->Anciens trucs ici https://rentry.org/oldsdupdates<-
Tous les liens de location se terminent ici par un « .org » et peuvent être remplacés par un « .co ». Utilisez également la navigation incognito/privée lorsque vous ouvrez des liens Google, sinon vous perdrez votre anonymat / quelqu'un pourrait vous doxer
Contact
Si vous avez des informations/fichiers (par exemple intégrés) qui ne figurent pas dans cette liste, si vous avez des questions ou souhaitez aider, veuillez me contacter avec plus de détails.
Réseaux sociaux : Trip : questianon !!YbTGdICxQOw Discord : malt#6065 Reddit : u/questianon Github : https://github.com/questianon Twitter : https://twitter.com/questianon
!!! remarque Instructions de mise à jour. Si SD s'interrompt, reculez dans les validations jusqu'à ce qu'il recommence à fonctionner. Instructions : * Si sous Windows : 1. accédez au répertoire webui via l'invite de commande ou git bash a. Git bash : clic droit > git bash ici b. Invite de commande : cliquez sur l'endroit dans "l'URL" entre le dossier et la flèche vers le bas et tapez "invite de commande". c. Si vous ne savez pas comment faire cela, ouvrez l'invite de commande, tapez "cd [chemin vers stable-diffusion-webui]" (vous pouvez l'obtenir en cliquant avec le bouton droit sur le dossier dans "l'url" ou en maintenant la touche Maj + clic droit sur dossier stable-diffusion-webui) 2. git pull
3. pip install -r requirements_versions.txt
* Si sous Linux : 1. allez dans le répertoire webui 2. source ./venv/bin/activate
a. si cela ne fonctionne pas, exécutez python -m venv venv
au préalable 3. git pull
4. pip install -r requirements.txt
If AUTOMATIC1111's Github goes down, you can try checking his alt repo: https://gitgud.io/AUTOMATIC1111/stable-diffusion-webui
Remarque : si je ne mets pas à jour dans un mois, j'ai probablement décidé de m'éloigner de la documentation et de suivre SD car cela prend trop de temps. Si tel est le cas, ma dernière mise à jour consistera à nettoyer certaines choses et à effectuer une grande mise à jour finale. Pour suivre l'actualité, vous pouvez utiliser
Reddit (recommandé puisque tout est filtré si vous triez par haut) : https://www.reddit.com/r/StableDiffusion/ 4chan (regardez les premiers commentaires pour voir si quelque chose de gros a été ajouté, bien si vous voulez être sur en haut des choses) : https://boards.4channel.org/g/catalog#s=sdg SDCompendium (je ne suis pas trop sûr de la qualité de ce site, d'un rapide survol, il semble plutôt bon et entretenu. A chaque semaine (?) et des actualités mensuelles (?) ainsi qu'une tonne d'autres choses) : https://www.sdcompendium.com/
Merci à tous pour votre soutien à ce dépôt et au développement général de SD, j'apprécie vraiment tous ceux qui ont contribué et j'espère que vous porterez SD vers de nouveaux sommets.
4/11
- Si AUTO1111 arrête de mettre à jour son dépôt pour toujours et que vous souhaitez des mises à jour, vous pouvez parcourir ceci pour en rechercher de nouvelles : https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/ stable-diffusion-webui
- Ceux recommandés dans les commentaires : https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/stable-diffusion-webui
- Pétitions du LAION pour démocratiser la recherche sur l'IA : https://www.openpetition.eu/petition/online/securing-our-digital-future-a-cern-for-open-source-large-scale-ai-research-and-its -sécurité
- Article Reddit 1 : https://www.reddit.com/r/singularity/comments/126j2ok/laion_launches_a_petition_to_democratize_ai/
- Reddit 2 : https://www.reddit.com/r/StableDiffusion/comments/126rb5p/laion_launches_a_petition_to_democratize_ai/
- Publication du modèle Stable Diffusion v2-1-unCLIP : utilise essentiellement l'image d'entrée comme invite similaire à la façon dont DALL-E 2 l'a fait
- Github : https://github.com/Stability-AI/stablediffusion/blob/main/doc/UNCLIP.MD
- Blog : https://stability.ai/blog/stable-diffusion-reimagine
- Modèle : https://huggingface.co/stabilityai/stable-diffusion-2-1-unclip
- Démo : https://clipdrop.co/stable-diffusion-reimagine
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/1218dxk/stable_diffusion_v21unclip_model_released/
- Modèle Kandinsky 2.1 : https://github.com/ai-forever/Kandinsky-2
- Modèle d'image open source qui n'est pas basé sur la diffusion stable. Peut faire du mélange d'images (?) et de la fusion
- Site Artgen gratuit et rapide (?), a Kandinsky : https://dreamlike.art/create
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/12c9yos/ive_added_kandinsky_21_to_my_website_its_free_and/
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/12bf5k2/kandinsky_21_beats_stable_diffusion_and_allows/
- Une autre vitrine Reddit : https://www.reddit.com/r/StableDiffusion/comments/12bexho/kandinsky_21_a_new_open_source_texttoimage_model/
- Modèle de visage ControlNet publié : https://huggingface.co/CrucibleAI/ControlNetMediaPipeFace
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/1281iva/new_controlnet_face_model/
- ChatGPT "jailbreak" pour supprimer les restrictions (fonctionne bien sur GPT 4) : https://github.com/0xk1h0/ChatGPT_DAN
- StyleGAN-T par NVIDIA - Synthèse texte-image plus rapide que la diffusion stable : https://sites.google.com/view/stylegan-t/
- Articles de deux minutes : https://www.youtube.com/watch?v=qnHbGXmGJCM&t=84s
- Réglage fin du texte en vidéo : https://github.com/ExponentialML/Text-To-Video-Finetuning
- Présentation texte en vidéo RunwayML : https://www.reddit.com/r/StableDiffusion/comments/12gwa4m/movie_scene_generated_with_text2video_by_runwayml/
- Site Web avec une tonne d'informations + vitrines : https://research.runwayml.com/gen2
- Modèle vidéo de paramètres 1.2B : https://huggingface.co/VideoCrafter/t2v-version-1-1
- Démo : https://huggingface.co/spaces/VideoCrafter/VideoCrafter
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/12coe0l/new_12b_parameter_text_to_video_model_is_out/
- Présentations vidéo de la réalité cool sur Stable Diffusion (workflow dans les commentaires) :
- Chien : https://www.reddit.com/r/StableDiffusion/comments/12bdr3p/augmenting_reality_with_stable_diffusion_just/
- Fille qui danse : https://www.reddit.com/r/StableDiffusion/comments/12i9qr7/i_transform_real_person_dancing_to_animation/
- Le truc de bouclage que font un groupe de tiktokkers (consultez les commentaires pour savoir comment le faire) : https://www.reddit.com/r/StableDiffusion/comments/129zh69/slide_diffusion_loopback_wave_script/
- Image SD vers Blender pour la faire pivoter vers une autre image qui conserve la profondeur : https://www.reddit.com/r/StableDiffusion/comments/12aurpp/i_found_a_way_to_create_différent_consistent/
- Créateur de script utilisé : https://github.com/thygate/stable-diffusion-webui-thirdmap-script
- Vidéo similaire : https://www.reddit.com/r/StableDiffusion/comments/127kagv/stepping_into_places_that_do_not_exist_stable/
- Fusion de jetons (gens plus rapides)
- https://github.com/dbolya/tomesd#installation
- https://git.mmaker.moe/mmaker/sd-webui-tome
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/1276th7/token_merging_for_fast_stable_diffusion/
- Script du prompteur régional SD : https://github.com/hako-mikan/sd-webui-regional-prompter
- Image Mixer - combinez des concepts, des styles et des compositions (comme Midjourney) : https://huggingface.co/lambdalabs/image-mixer
- Interface graphique du convertisseur CKPT en safetensors : https://github.com/diStyApps/Safe-and-Stable-Ckpt2Safetensors-Conversion-Tool-GUI
3/23
- Publication d'un modèle de diffusion de texte en vidéo open source de 1,7 milliard de paramètres
- HuggingFace : https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthesis/tree/main
- Démo HuggingFace : https://huggingface.co/spaces/damo-vilab/modelscope-text-to-video-synthesis
- Modèle : https://modelscope.cn/models/damo/text-to-video-synthesis/summary
- Fichiers de modèle : https://modelscope.cn/models/damo/text-to-video-synthesis/files
- Twitter : https://twitter.com/_akhaliq/status/1637321077553606657
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/11vbyei/first_open_source_text_to_video_17_billion/
- InstructPix2Pix appliqué aux NeRF : https://instruct-nerf2nerf.github.io/
- Github : https://github.com/nerfstudio-project/nerfstudio
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/11z7rrg/instructnerf2nerf/
- Multidiffusion, une combinaison de Nvidia eDiffi et SD paint-with-words : https://multidiffusion.github.io/
- Github : https://github.com/omerbt/MultiDiffusion
- Démo : https://huggingface.co/spaces/weizmannscience/multidiffusion-region-based
- Il y a une extension pour cela dans le webui
- Effacement des concepts SD des modèles de diffusion : https://erasing.baulab.info/
- Midjourney v5 est sorti
- Publication du modèle GAN à grande échelle : https://mingukkang.github.io/GigaGAN/
- Article : https://arxiv.org/abs/2303.05511
- ChatGPT local avec 30 B de paramètres pour une utilisation locale publié : https://github.com/antimatter15/alpaca.cpp
- Glossaire sympa des termes SD : https://sdtools.org/
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/11nk957/sdtools_v15/
3/2
- Sortie de la stabilité pour Blender : https://platform.stability.ai/docs/integrations/blender
- Officiellement pris en charge, gratuit et sans tracas pour utiliser Stable Diffusion et d'autres modèles à venir dans Blender
- Nécessite uniquement une connexion Internet (pas de dépendances ni de GPU) pour effectuer des effets de post-traitement IA avec juste une connexion Internet
- Message Discord : https://discord.com/channels/1002292111942635562/1002292398703001601/1080897334201815150
- Téléchargement Github : https://github.com/Stability-AI/stability-blender-addon-public/releases/
- Extension de la bibliothèque ControlNet Hands publiée : https://github.com/jexom/sd-webui-degree-lib
- Deflicker qui fonctionne pour les versions SD en 2 semaines
- Site Web : https://chenyanglei.github.io/deflicker/
- Github : https://github.com/ChenyangLEI/All-In-One-Deflicker
- Démo du post-processus de diffusion pour émuler des choses comme le lancer de rayons (c'est-à-dire une entrée basse résolution vers une sortie haute résolution) : https://www.reddit.com/r/StableDiffusion/comments/11gikby/what_i_think_is_the_future_of_realism_in_games/
3/1
- ControlNet mis à jour pour fournir des corrections d'images ciblées (c'est-à-dire les mains) en retardant l'heure de début du guidage.
- Github : Mikubill/sd-webui-controlnet#393
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/11d7it7/targeted_hand_fix_is_finallly_possible_at/
- Extension de bouclage vidéo pour le webui de l'A1111 publiée : https://github.com/fishslot/video_loopback_for_webui
- Améliore la stabilité de la vidéo grâce au bouclage et au flou temporel
- Destiné aux animations de personnages et doit généralement être utilisé avec Lora ou DreamBooth
- Multi-controlnet pour pose + mains + démo d'image (corrige de nombreux problèmes d'anatomie) : https://www.reddit.com/r/StableDiffusion/comments/11c4m4q/one_of_the_best_uses_for_multicontrolnet_from/
- Plate-forme de mixage : https://toyxyz.gumroad.com/l/ciojz
- Une autre démo : https://www.reddit.com/r/StableDiffusion/comments/11e15mw/highly_improved_hand_and_feet_generation_with/
- Publication de la synthèse d'images conditionnelles compatible 3D : https://github.com/dunbar12138/pix2pix3D
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/11cudxv/pix2pix3d_3daware_conditional_image_synthesis/
- Jeu de RPG isométrique "Tales of Syn" développé avec Stable Diffusion, GPT3 et un logiciel de création de jeux traditionnel : https://www.reddit.com/r/StableDiffusion/comments/11fb7oq/isometric_rpg_game_tales_of_syn_developed_with/
- Blog : https://talesofsyn.com/posts/creating-isometric-rpg-game-backgrounds
- SD hors ligne sur les produits Apple avec ~ 3-4 it/s (comme revendiqué par le développeur) et controlnet : https://apps.apple.com/gb/app/draw-things-ai-generation/id6444050820
- ChatGPT publie son API à 0,002 $ pour 1 000 jetons : https://openai.com/blog/introducing-chatgpt-and-whisper-apis
- CLIP de formation pour compter : https://arxiv.org/abs/2302.12066
- SD vers VR : https://skybox.blockadelabs.com/
- Reddit (propose une démo et une inscription à l'API) : https://www.reddit.com/r/StableDiffusion/comments/119l8ra/immersive_diffusion_by_scottie_fox_made_with/
- Explication des raisons pour lesquelles SD a du mal à créer des images sombres ou claires (tldr fait la moyenne des niveaux de lumière) : https://www.crosslabs.org/blog/diffusion-with-offset-noise
- Modèle : https://civitai.com/models/10391/noise-offset-for-true-darkness-in-sd
- Démo de pipeline de jeu isométrique utilisant SD, Houdini et multi-controlnet : https://www.reddit.com/r/StableDiffusion/comments/11bkjyo/multicontrolnet_is_a_great_tool_for_creating/
- Créer des images panoramiques avec moins de 6 Go de VRAM (ne fonctionne pas encore avec le webui de l'A1111) : https://www.reddit.com/r/StableDiffusion/comments/11a6s7h/you_to_can_create_panorama_images_512x10240_not_a/
- Diffusion stable vers un maillage 3D : https://www.reddit.com/r/StableDiffusion/comments/11eiqij/partial_3d_model_from_sd_images_still_in_a_very/
- Scam Yacht Party utilise l'IA pour les photos promotionnelles (mdr) : https://www.scmp.com/news/people-culture/trending-china/article/3211222/their-fingers-look-fake-deluxe-chinese-yacht- fête-promettant-vip-maid-service-coulé-après-freaky-sexy
- Tutoriels simples :
- Réseau de contrôle :
- https://www.reddit.com/r/StableDiffusion/comments/11aks00/onepage_simple_tutorials/
- https://i.redd.it/83p0oq8cx7ka1.png
- (retélécharger) https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- LORA :
- https://www.reddit.com/r/StableDiffusion/comments/11dqs6w/basic_guide_3_how_to_load_and_use_a_lora/
2/26
- Composer, un grand modèle de diffusion contrôlable (5 milliards de paramètres), où les effets de SD et de Controlnet sont combinés dans le modèle est wip. AKA manipuler et conserver la composition devrait être mieux.
- Infos : https://damo-vilab.github.io/composer-page/
- Github : https://github.com/damo-vilab/composer
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/11bbpse/composer_a_large_5_billion_parameters/
- SD 3.0 devrait être accompagné d'un réglage fin du RLHF pour une meilleure formation
- RLHF = les humains donnent des commentaires sur ce qui est bon et ce qui ne l'est pas et la machine ajuste son apprentissage en fonction de cela
- ChatGPT a été construit à l'aide de RLHF, alors comparez sa qualité à d'autres modèles de texte
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/11bvnig/sd_30_will_come_with_rlhf_finetuning_for_better
- Vitrine assez sympa de l'utilisation de Stable DIffusion et d'autres outils pour créer un épisode d'anime avec des effets visuels et autres appropriés (coupez le son si le dialogue n'est pas à votre goût) : https://youtu.be/GVT3WUa-48Y
- Dans les coulisses (montre uniquement un aperçu du flux de travail) : https://www.youtube.com/watch?v=_9LX9HSQkWo&t=0s
23/02 (cette nouvelle et les précédentes n'ont pas été publiées car j'ai oublié le code d'édition)
- Nouveau modèle CLIP open source publié par LAION : https://twitter.com/laion_ai/status/1618317487283802113
- TLDR : meilleure classification des images --> meilleure génération
- Blog : https://laion.ai/blog/giant-openclip/
- Visage câlin : https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k
- Le modèle Deepfloyd IF sortira bientôt (s'il ne prend pas de retard)
- Open source, peut générer du texte avec précision
- Exemple : https://twitter.com/deepfloydai/status/1610805687361179651
- Leur arbre de liens : https://linktr.ee/deepfloyd
- Modèles de texte + image similaires :
- Karlo : https://huggingface.co/spaces/kakaobrain/karlo
- Muse (par Google) : https://muse-model.github.io/
- Le US Copyright Office déclare que les images produites par Midjourney pour "Zarya of the Dawn" ne sont pas éligibles à la protection du droit d'auteur car elles ne répondent pas aux exigences minimales en matière de paternité humaine. Cependant, l'histoire et la disposition des images dans la bande dessinée sont éligibles à la protection du droit d'auteur.
- En bref, les droits d’auteur sur les images d’IA (du moins aux États-Unis) sont encore flous.
- Lettre de correspondance : https://fingfx.thomsonreuters.com/gfx/legaldocs/klpygnkyrpg/AI%20COPYRIGHT%20decision.pdf
- Message : https://processmechanics.com/2023/02/22/a-mixed-decision-from-the-us-copyright-office/
- Article Reddit : https://www.reddit.com/r/StableDiffusion/comments/1196wl6/us_copyright_office_affirms_copyright_of/
- Informations juridiques supplémentaires : https://www.reddit.com/r/bigsleep/comments/uevfch/article_ai_authorship_by_a_law_professor_2020/
2/22
- Huggingface ajoute une galerie de modèles de diffusion : https://huggingface.co/spaces/huggingface-projects/diffusers-gallery
- OpenAI essaie de restreindre les modèles de langage et les projets open source : https://arxiv.org/pdf/2301.04246.
- https://twitter.com/harmlessai/status/1624617240225288194
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/111fbvb/closedai_strikes_again
- A1111 a publié un installateur automatique pour son webui : https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
- InstructPix2Pix intégré au webui de l'A1111
- IP2P est un modèle qui peut apporter des modifications à une image à l'aide d'invites en langage naturel
- https://www.timothybrooks.com/instruct-pix2pix
- Téléchargement du modèle : https://huggingface.co/timbrooks/instruct-pix2pix/tree/main
- Article Reddit avec plus d'informations : https://www.reddit.com/r/StableDiffusion/comments/10tjzmf/instructpix2pix_is_built_straight_into_the/
- Extension ControlNet + Houdini (logiciel 3D)
- https://www.reddit.com/r/StableDiffusion/comments/115eax6/im_working_on_api_for_the_a1111_controlnet/
- Guide de formation LORA : https://i.imgur.com/J8xXLLy.png
- https://www.reddit.com/r/StableDiffusion/comments/110up3f/i_made_a_lora_training_guide_its_a_colab_version/
- Guide ControlNet : https://i.redd.it/a2ifnjcqj4ja1.png
- 2 semaines mais l'extension ControlNet est publiée
- Réseau neuronal qui ajoute plus de contrôle sur les modèles de diffusion stable sans fusion ni nécessiter beaucoup d'img2img
- Probablement la plus grande amélioration apportée aux invites de composition (corrige grandement les mains !) et img2img
- Permet d'extraire des compositions et des poses à partir d'images
- Vous pouvez mélanger cela avec un logiciel de pose 3D comme Daz3D, https://magicposer.com/ et l'extension OpenPose pour créer rapidement des personnages avec des poses spécifiques.
- Possède de nombreux préprocesseurs et modèles différents
- Dans la mise à jour récente, vous pouvez utiliser plusieurs modèles à la fois (activez-le dans les paramètres)
- Exemple de modèle : Esquisse - Convertit une esquisse en base pour une image, en conservant la composition de base
- Possède une option pour deviner l'image fournie et générer quelque chose même sans invite
- Explication simple de tous les paramètres et modèles : https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- Modèles élagués (bons pour la plupart des gens) : https://civitai.com/models/9868/controlnet-pre-trained-difference-models
- Modèles originaux : https://huggingface.co/lllyasviel/ControlNet
- Github d'origine : https://github.com/lllyasviel/ControlNet
- Plugin A1111 Github : https://github.com/Mikubill/sd-webui-controlnet
- Sortie du plugin OpenPose
- Extraire les informations de pose des images
- Fonctionne avec ControlNet
- Github : https://github.com/fkunn1326/openpose-editor
- Attend-and-Excite : présente les soins infirmiers sémantiques génératifs pour intervenir pendant le processus génératif afin de guider le modèle pour générer tous les jetons dans une invite
- Github : https://github.com/AttendAndExcite/Attend-and-Excite
- Article : https://arxiv.org/abs/2301.13826
- Site Web : https://attendandexcite.github.io/Attend-and-Excite/
- Plugin Photoshop gratuit et open source sorti il y a quelques semaines
- Github : https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
- Vitrine Reddit : https://www.reddit.com/r/StableDiffusion/comments/10n3cqo/major_update_automatic1111_photoshop_stable/
- Grosse mise à jour pour l'interface graphique NKMD d'il y a quelques semaines
- Article Reddit : https://www.reddit.com/r/StableDiffusion/comments/10kbyro/nmkd_stable_diffusion_gui_190_is_out_now/
- Github : https://github.com/n00mkrad/text2image-gui
- Itch.io : https://nmkd.itch.io/t2i-gui/devlog/480628/sd-gui-190-now-with-instructpix2pix
- Oldish : Google annonce Dreamix
- Génère des vidéos à partir d'une invite et d'une vidéo d'entrée
- Ancien : RunwayML travaille sur la vidéo pour inviter à la vidéo : https://arxiv.org/abs/2302.03011
- Super ancien, mais pertinent grâce à la vidéo : réseaux de neurones en couches pour la cohérence de la vidéo : https://layered-neural-atlases.github.io/
2/2
- La courte animation Netflix utilise la génération d'images pour ses arrière-plans
- https://twitter.com/NetflixJP/status/1620357552025538561
- Texte en vidéo dynamique 3D utilisant du papier 4D publié : https://make-a-video3d.github.io/
- Peut voir depuis n'importe quel emplacement et angle de caméra
- Text to Live : édition d'images et de vidéos à l'aide de texte
- https://text2live.github.io/
- AUTOMATIC1111 lance une extension de pixellisation pour son webui : https://github.com/AUTOMATIC1111/stable-diffusion-webui-pixelisation
- Mise à jour assez ancienne : vous pouvez prévisualiser les intégrations dans le webui d'AUTOMATIC1111
- Mise à jour assez ancienne : Waifu Diffusion 1.4 est disponible
- Diffuseurs : https://huggingface.co/hakurei/waifu-diffusion
- Cornichon : https://huggingface.co/hakurei/waifu-diffusion-v1-4
- Ancienne mise à jour : publication de l'extension qui complète le support de deep2img
- https://github.com/AnonymousCervine/degree-image-io-for-SDWebui
- Ancienne mise à jour que j'ai oublié d'inclure : VoltaML, similaire à SDA, augmente les vitesses jusqu'à 10 fois (d'après ce que j'ai entendu)
- https://github.com/VoltaML/voltaML-fast-stable-diffusion
1/28
- API Stable Diffusion Accelerated (SDA) publiée par SAIL : https://github.com/chavinlo/sda-node
- Utilise TensorRT pour accélérer les vitesses de génération sur les cartes NVIDIA
- Générez une image 512 x 512 à 25 étapes en une demi-seconde
- API HTTP
- Plus de programmateurs de diffuseurs
- Invites pondérées (ex. : "un chat :1.2 ET un chien ET un pingouin :2.2")
- Plus de pas grâce aux planificateurs accélérés
- Invites étendues (interrompues pour le moment)
- Vous pouvez le tester sur leur serveur avant de le télécharger : https://discord.gg/RWbpNGyN
1/23
- Recours collectif intenté par trois artistes contre Stability AI, Midjourney et Deviant Art for Stable Diffusion
- Les mêmes avocats que ceux qui ont poursuivi Github Copilot
- Article Reddit : https://www.reddit.com/r/StableDiffusion/comments/10bj8jm/class_action_lawsuit_filed_against_stable/
- Vidéo Youtube que j'ai trouvée : https://www.youtube.com/watch?v=gv9cdTh8cUo
- Publication d'une adaptation de bas rang pour un réglage fin de la diffusion rapide du texte à l'image (Lora)
- Alternative à Dreambooth, fichiers de 3 Mo
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/1078nsf/version_010_of_lora_released_alternative_to/
- Github : https://github.com/cloneofsimo/lora
- Carnet : https://github.com/cloneofsimo/lora/blob/master/scripts/run_inference.ipynb
- Les Safetensors semblent être la norme désormais, et vous devriez pouvoir les télécharger et les utiliser en toute sécurité.
- Publication d'un grand référentiel de points de contrôle avec une belle interface utilisateur : https://civitai.com/
- A des options de tri, des aperçus, des commentaires, etc. Semble être un remplacement non censuré de HuggingFace ?
- Publication de l'APK Android pour générer des images 256 x 256 à partir de NovelAI : https://github.com/EdVince/Stable-Diffusion-NCNN
- Diverses mises à jour de ChatGPT : https://openai.com/blog/chatgpt/
- Open Assistant : ChatGPT essentiellement open source
- Github : https://github.com/LAION-AI/Open-Assistant
- (Un peu ancien ?, pertinent en raison de ChatGPT) Le plus grand modèle de langage multilingue ouvert : BLOOM
- https://huggingface.co/bigscience/bloom
- https://bigscience.huggingface.co/blog/bloom
- De nombreuses mises à jour de l'interface utilisateur et des fonctionnalités du webui d'AUTOMATIC1111, assurez-vous de git pull/update pour les obtenir
- Les anciens messages du fil d'actualité ont été archivés : https://rentry.org/oldsdupdates
26/11 au 12/12
- Goldmine est en cours de réorganisation et de conservation, la mise à jour sortira quand elle semblera organisée
- Mettez à jour votre installation AUTOMATIC1111 pour de nombreux correctifs + fonctionnalités
- Mises à jour notables que je peux trouver :
- Ajout de --gradio-inpaint-tool et color-sketch : https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/5cd5a672f7889dcc018c3873ec557d645ebe35d0
- Safetensors fusionnés : AUTOMATIC1111/stable-diffusion-webui#4930
- Pour activer SafeTensors pour GPU, la variable
SAFETENSORS_FAST_GPU environment
doit être définie sur 1
- Le script de conversion par lots est dans le PR
- Convertir : https://huggingface.co/spaces/safetensors/convert
- Un tas de mises à jour/correctifs de l'interface utilisateur
- Prise en charge appropriée de SD 2.0 (engagement principal lié) : https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- Améliorations de divers outils (comme les upscalers)
- (j'ai oublié de mettre ceci depuis sa création, mais c'est vraiment bien) InvokeAI, une alternative tout-en-un au webui d'Automatic1111, est mis à jour avec beaucoup de choses : https://github.com/invoke-ai/InvokeAI
- InvokeAI n'a besoin que d'environ 3,5 Go de VRAM pour générer une image 512 x 768 (et moins pour les images plus petites) et est compatible avec Windows/Linux/Mac (M1 et M2).
- Possède des fonctionnalités telles que : l'interface utilisateur, la gestion de l'intégration, un canevas unifié (infini) et une visionneuse d'images.
- Très convivial (interface utilisateur simple) et super facile à installer (1 clic)
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/zabmht/invokeai_22_release_the_unified_canvas/
- Unstable Diffusion atteint son objectif de démarrage de 25 000 $ pour une formation continue sur SD 2.0
- https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd
- Objectifs:
- Community GPU Cloud : les chercheurs et les modélistes communautaires peuvent demander des subventions de calcul et former leurs propres modèles et ensembles de données sur notre système, à condition qu'ils publient les résultats en open source.
- Formation continue utilisant plus d'étapes et d'images
- Filtré uniquement les enfants pour éviter toute utilisation abusive
- Sortie de Stable Diffusion v2.1 : https://stability.ai/blog/stablediffusion2-1-release7-dec-2022
- https://huggingface.co/stabilityai/stable-diffusion-2-1
- Réduction de la force des filtres pour permettre de générer de meilleures personnes
- LORA - Adaptation de bas rang pour une diffusion rapide du texte vers l'image Espace de réglage fin (basé sur le github ci-dessous) : https://huggingface.co/spaces/ysharma/Low-rank-Adaptation
- Dreambooth deux fois plus rapide
- Tailles de fichiers de modèle très petites (3-4 Mo)
- Soi-disant mieux qu'un réglage complet selon l'auteur de l'espace lié
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/ziwwzh/lora_dreambooth_web_ui_finetune_stable_diffusion/
- Dreambooth sur 6 Go de VRAM et moins de 16 Go de RAM publié (LORA d'en haut) : https://github.com/cloneofsimo/lora
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/zfqkh3/we_can_now_do_dreambooth_on_a_gpu_with_only_6gb/
- Comment exécuter nativement Windows sans WSL (utilise des étapes similaires au guide lié) : https://www.reddit.com/r/StableDiffusion/comments/ydip3s/guide_dreambooth_training_with_shivamshriraos/
- StableTuner, un réglage fin de diffusion stable basé sur une interface graphique, publié : https://github.com/devilismyfriend/StableTuner
- Facile à installer et à utiliser, interface graphique conviviale et réglage fin/entraîneur tout-en-un
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/zd3xut/stabletuner_a_nononsense_powerful_finetuner_with/
- openOutpaint publié : https://github.com/zero01101/openOutpaint
- Outpainting open source, auto-hébergé, hors ligne, léger et facile à utiliser pour le webui d'AUTOMATIC1111
- Guide : https://github.com/zero01101/openOutpaint/wiki/SBS-Guided-Example
- Manuel : https://github.com/zero01101/openOutpaint/wiki/Manual
- Reddit (plus de fonctionnalités répertoriées dans les commentaires) : https://www.reddit.com/r/StableDiffusion/comments/zi2nr9/openoutpaint_v0095_an_aggressively_open_source/
- OpenAI publie ChatGPT, un modèle de langage pour le dialogue (infos dans le lien) : https://openai.com/blog/chatgpt/
- Démo (compte requis) : https://chat.openai.com/
- Automatic1111 ajoute la prise en charge du modèle de profondeur SD
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/zi6x66/automatic1111_added_support_for_new_owned_model/
- Instructions d'utilisation par l'utilisateur de Reddit :
- Téléchargez https://huggingface.co/stabilityai/stable-diffusion-2-degree (model) et placez-le dans models/Stable-diffusion
- Téléchargez https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-midas-inference.yaml (config) et placez-le dans le même dossier que le point de contrôle
- Renommez la configuration en 512-degree-ema.yaml
- Démarrez Stable-Diffusion-Webui, sélectionnez le point de contrôle 512-profondeur-ema et utilisez img2img comme vous le feriez normalement.
- Extension deepmap2mask publiée qui peut créer des masques de carte de profondeur 3D --> soi-disant mieux img2img
- Semble être une alternative au conditionnement du poids du masque d'image
- Formation Dreambooth basée sur l'extension du repo de Shivam mise à jour pour prendre en charge SD v2.0 (trouvez-la dans l'onglet extensions)
- Script pour convertir les modèles de diffuseurs en ckpt et (vice versa ?) publié : https://github.com/lawfordp2017/diffusers/tree/main/scripts
- Webui AUTOMATIC1111 maintenant sur HuggingFace : https://huggingface.co/spaces/camenduru/webui
- Interface graphique du scanner Pickle mise à jour : https://github.com/diStyApps/Stable-Diffusion-Pickle-Scanner-GUI
- Démo Dream Textures (Stable Diffusion pour Blender) : https://twitter.com/CarsonKatri/status/1600248599254007810
- Github : https://github.com/carson-katri/dream-textures
- Reddit : https://www.reddit.com/r/StableDiffusion/comments/zf2b9k/absolutely_crazy_addon_in_blender_to_add_textures/
- Sortie de l'application IOS Stable Diffusion : https://www.reddit.com/r/StableDiffusion/comments/z5ndpw/i_made_a_stable_diffusion_for_anime_app_in_your/
- Hors ligne ?
- App Store : https://apps.apple.com/us/app/waifu-art-ai-local-generator/id6444585505
- Lancement d'un service de formation Dreambooth simple (mais qui coûte de l'argent) : https://openart.ai/photobooth
- Sortie du serveur de diffusion stable tout-en-un (coûte de l'argent mais semble bon marché et facile à utiliser) : https://rundiffusion.com/
- https://www.reddit.com/r/StableDiffusion/comments/zea5rd/thank_you_to_all_the_alpha_testers/
- Waifu Diffusion 1.4 est retardé au 26 décembre en raison d'un problème de base de données (pas SD 2.0)
25/11+26/11
- My SD Hypertextbook, un tutoriel qui apprend à un nouveau venu comment installer et utiliser Stable Diffusion, est publié : https://rentry.org/sdhypertextbook
- SD 2.0 est pris en charge dans le webui d'AUTOMATIC1111 : https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- (Retélécharger avec de nouvelles informations) Pull request pour prendre en charge les safetensors, le format non pickleable et rapide pour remplacer pytorch : AUTOMATIC1111/stable-diffusion-webui#4930
- Git check-out ce commit
- Convertissez vos modèles localement : lisez le premier commentaire du PR
- Convertissez vos modèles dans le cloud : https://colab.research.google.com/drive/1YYzfYZEJTb3dAo9BX6w6eZINIuRsNv6l#scrollTo=ywbCl6ufwzmW