Atualizações SD (3)
->Apenas notícias aqui<- ->Encontre downloads e links aqui: https://rentry.org/sdgoldmine<- ->Coisas antigas aqui https://rentry.org/oldsdupdates<-
Todos os links rentry terminam com '.org' aqui e podem ser alterados para '.co'. Além disso, use a navegação anônima/privada ao abrir links do Google, caso contrário você perderá seu anonimato/alguém poderá doxá-lo
Contato
Se você tiver informações/arquivos (por exemplo, incorporados) que não estão nesta lista, tiver dúvidas ou quiser ajudar, entre em contato comigo com detalhes
Redes sociais: Viagem: questionianon !!YbTGdICxQOw Discord: malt#6065 Reddit: u/questianon Github: https://github.com/questianon Twitter: https://twitter.com/questianon
!!! note Instruções de atualização. Se o SD quebrar, retroceda nos commits até começar a funcionar novamente Instruções: * Se estiver no Windows: 1. navegue até o diretório webui através do prompt de comando ou git bash a. Git bash: clique com o botão direito> git bash aqui b. Prompt de comando: clique no local do “url” entre a pasta e a seta para baixo e digite “prompt de comando”. c. Se você não sabe como fazer isso, abra o prompt de comando, digite "cd [caminho para stable-diffusion-webui]" (você pode fazer isso clicando com o botão direito na pasta no "url" ou segurando shift + clicando com o botão direito no pasta stable-diffusion-webui) 2. git pull
3. pip install -r requirements_versions.txt
* Se estiver no Linux: 1. vá para o diretório webui 2. source ./venv/bin/activate
a. se isso não funcionar, execute python -m venv venv
antecipadamente 3. git pull
4. pip install -r requirements.txt
If AUTOMATIC1111's Github goes down, you can try checking his alt repo: https://gitgud.io/AUTOMATIC1111/stable-diffusion-webui
Observação: se eu não atualizar em um mês, provavelmente decidi deixar de documentar e acompanhar o SD, pois isso toma muito do meu tempo. Se for esse o caso, minha atualização final será limpar algumas coisas e fazer uma grande atualização final. Para acompanhar as novidades, você pode usar
Reddit (recomendado porque tudo é filtrado se você classificar por cima): https://www.reddit.com/r/StableDiffusion/ 4chan (veja os comentários principais para ver se algo grande foi adicionado, bom se você quiser estar no acima de tudo): https://boards.4channel.org/g/catalog#s=sdg SDCompendium (não tenho muita certeza de quão bom este site é, olhando rapidamente, parece muito bom e mantido. Tem semanalmente (?) e mensal(?) notícias, bem como muitas outras coisas): https://www.sdcompendium.com/
Obrigado a todos por seu apoio a este repositório e ao desenvolvimento geral do SD. Eu realmente aprecio todos que contribuíram e espero que vocês levem o SD a novos patamares.
11/04
- Se AUTO1111 parar de atualizar seu repositório para sempre e você quiser atualizações, você pode navegar aqui para procurar por novas: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/ difusão estável-webui
- Recomendados nos comentários: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/stable-diffusion-webui
- Petições da LAION para democratizar a pesquisa em IA: https://www.openpetition.eu/petition/online/securing-our-digital-future-a-cern-for-open-source-large-scale-ai-research-and-its -segurança
- Postagem 1 do Reddit: https://www.reddit.com/r/singularity/comments/126j2ok/laion_launches_a_petition_to_democratize_ai/
- Reddit 2: https://www.reddit.com/r/StableDiffusion/comments/126rb5p/laion_launches_a_petition_to_democratize_ai/
- Modelo Stable Diffusion v2-1-unCLIP lançado: basicamente usa a imagem de entrada como um prompt semelhante a como o DALL-E 2 fez isso
- Github: https://github.com/Stability-AI/stablediffusion/blob/main/doc/UNCLIP.MD
- Blog: https://stability.ai/blog/stable-diffusion-reimagine
- Modelo: https://huggingface.co/stabilityai/stable-diffusion-2-1-unclip
- Demonstração: https://clipdrop.co/stable-diffusion-reimagine
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1218dxk/stable_diffusion_v21unclip_model_released/
- Modelo Kandinsky 2.1: https://github.com/ai-forever/Kandinsky-2
- Modelo de imagem de código aberto que não é baseado em Difusão Estável. Pode fazer mixagem de imagens (?) E mesclagem
- Site Artgen que é gratuito e rápido(?), tem Kandinsky: https://dreamlike.art/create
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12c9yos/ive_added_kandinsky_21_to_my_website_its_free_and/
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12bf5k2/kandinsky_21_beats_stable_diffusion_and_allows/
- Outra vitrine do reddit: https://www.reddit.com/r/StableDiffusion/comments/12bexho/kandinsky_21_a_new_open_source_texttoimage_model/
- Modelo de rosto ControlNet lançado: https://huggingface.co/CrucibleAI/ControlNetMediaPipeFace
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1281iva/new_controlnet_face_model/
- ChatGPT "jailbreak" para remover restrições (funciona bem no GPT 4): https://github.com/0xk1h0/ChatGPT_DAN
- StyleGAN-T da NVIDIA - Síntese de texto para imagem mais rápida do que difusão estável: https://sites.google.com/view/stylegan-t/
- Artigos de dois minutos: https://www.youtube.com/watch?v=qnHbGXmGJCM&t=84s
- Ajuste fino de texto para vídeo: https://github.com/ExponentialML/Text-To-Video-Finetuning
- Apresentação de texto para vídeo RunwayML: https://www.reddit.com/r/StableDiffusion/comments/12gwa4m/movie_scene_generated_with_text2video_by_runwayml/
- Site com muitas informações + vitrines: https://research.runwayml.com/gen2
- Modelo de vídeo com parâmetro 1.2B: https://huggingface.co/VideoCrafter/t2v-version-1-1
- Demonstração: https://huggingface.co/spaces/VideoCrafter/VideoCrafter
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12coe0l/new_12b_parameter_text_to_video_model_is_out/
- Realidade legal para apresentações de vídeo do Stable Diffusion (fluxo de trabalho nos comentários):
- Cachorro: https://www.reddit.com/r/StableDiffusion/comments/12bdr3p/augmenting_reality_with_stable_diffusion_just/
- Menina dançando: https://www.reddit.com/r/StableDiffusion/comments/12i9qr7/i_transform_real_person_dancing_to_animation/
- A coisa de loopback que um monte de tiktokkers estão fazendo (verifique os comentários sobre como fazer isso): https://www.reddit.com/r/StableDiffusion/comments/129zh69/slide_diffusion_loopback_wave_script/
- Imagem SD para o Blender para girar para outra imagem que retenha a profundidade: https://www.reddit.com/r/StableDiffusion/comments/12aurpp/i_found_a_way_to_create_ Different_consistent/
- Criador do script usado: https://github.com/thygate/stable-diffusion-webui-profundidademap-script
- Vídeo semelhante: https://www.reddit.com/r/StableDiffusion/comments/127kagv/stepping_into_places_that_do_not_exist_stable/
- Fusão de tokens (gens mais rápidas)
- https://github.com/dbolya/tomesd#installation
- https://git.mmaker.moe/mmaker/sd-webui-tome
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1276th7/token_merging_for_fast_stable_diffusion/
- Script de prompt regional SD: https://github.com/hako-mikan/sd-webui-regional-prompter
- Image Mixer - combine conceitos, estilos e composições (como Midjourney): https://huggingface.co/lambdalabs/image-mixer
- GUI do conversor de CKPT para safetensors: https://github.com/diStyApps/Safe-and-Stable-Ckpt2Safetensors-Conversion-Tool-GUI
23/03
- Lançado modelo de difusão de texto de código aberto para vídeo com 1,7 bilhão de parâmetros
- HuggingFace: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthesis/tree/main
- Demonstração do HuggingFace: https://huggingface.co/spaces/damo-vilab/modelscope-text-to-video-synthesis
- Modelo: https://modelscope.cn/models/damo/text-to-video-synthesis/summary
- Arquivos de modelo: https://modelscope.cn/models/damo/text-to-video-synthesis/files
- Twitter: https://twitter.com/_akhaliq/status/1637321077553606657
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11vbyei/first_open_source_text_to_video_17_billion/
- InstructPix2Pix aplicado a NeRFs: https://instruct-nerf2nerf.github.io/
- Github: https://github.com/nerfstudio-project/nerfstudio
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11z7rrg/instructnerf2nerf/
- Multidiffusion, uma combinação de Nvidia eDiffi e SD paint-with-words: https://multidiffusion.github.io/
- Github: https://github.com/omerbt/MultiDiffusion
- Demonstração: https://huggingface.co/spaces/weizmannscience/multidiffusion-region-based
- Existe uma extensão para isso no webui
- Apagando conceitos SD de modelos de difusão: https://erasing.baulab.info/
- Midjourney v5 lançado
- Modelo GAN em grande escala lançado: https://mingukkang.github.io/GigaGAN/
- Artigo: https://arxiv.org/abs/2303.05511
- Lançado ChatGPT local com parâmetros 30B para uso local: https://github.com/antimatter15/alpaca.cpp
- Glossário legal de termos SD: https://sdtools.org/
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11nk957/sdtools_v15/
3/2
- Estabilidade para Blender lançada: https://platform.stability.ai/docs/integrations/blender
- Maneira oficialmente suportada, de uso gratuito e sem complicações de usar o Stable Diffusion e outros modelos futuros dentro do Blender
- Requer apenas uma conexão com a Internet (sem dependências ou GPU) para realizar efeitos de pós-processamento de IA com apenas uma conexão com a Internet
- Postagem de discórdia: https://discord.com/channels/1002292111942635562/1002292398703001601/1080897334201815150
- Download do Github: https://github.com/Stability-AI/stability-blender-addon-public/releases/
- Extensão da biblioteca de mãos ControlNet lançada: https://github.com/jexom/sd-webui-profundidade-lib
- Deflicker que funciona para lançamentos SD em 2 semanas
- Site: https://chenyanglei.github.io/deflicker/
- Github: https://github.com/ChenyangLEI/All-In-One-Deflicker
- Demonstração do pós-processo de difusão para emular coisas como ray tracing (também conhecido como entrada de baixa resolução para saída de alta resolução): https://www.reddit.com/r/StableDiffusion/comments/11gikby/what_i_think_is_the_future_of_realism_in_games/
3/1
- ControlNet atualizado para fornecer correções de imagem direcionadas (ou seja, mãos), tendo um horário de início de orientação atrasado
- Github: Mikubill/sd-webui-controlnet#393
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11d7it7/targeted_hand_fix_is_finallly_possible_at/
- Extensão de loopback de vídeo para webui do A1111 lançada: https://github.com/fishslot/video_loopback_for_webui
- Melhora a estabilidade do vídeo através de loopback e desfoque temporal
- Destinado a animações de personagens e geralmente precisa ser usado com Lora ou DreamBooth
- Multi-controlnet para pose + mãos + demonstração de imagem (corrige muitos problemas de anatomia): https://www.reddit.com/r/StableDiffusion/comments/11c4m4q/one_of_the_best_uses_for_multicontrolnet_from/
- Equipamento de liquidificador: https://toyxyz.gumroad.com/l/ciojz
- Outra demonstração: https://www.reddit.com/r/StableDiffusion/comments/11e15mw/highly_improved_hand_and_feet_generation_with/
- Síntese de imagem condicional com reconhecimento de 3D lançada: https://github.com/dunbar12138/pix2pix3D
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11cudxv/pix2pix3d_3daware_conditional_image_synthesis/
- Jogo de RPG isométrico "Tales of Syn" desenvolvido com Stable Diffusion, GPT3 e software de criação de jogos tradicional: https://www.reddit.com/r/StableDiffusion/comments/11fb7oq/isometric_rpg_game_tales_of_syn_developed_with/
- Blog: https://talesofsyn.com/posts/creating-isometric-rpg-game-backgrounds
- SD offline em produtos Apple com aproximadamente 3-4 it/s (conforme reivindicado por dev) e controlnet: https://apps.apple.com/gb/app/draw-things-ai-generation/id6444050820
- ChatGPT lança sua API a US$ 0,002 por 1.000 tokens: https://openai.com/blog/introduzindo-chatgpt-and-whisper-apis
- CLIP de treinamento para contar: https://arxiv.org/abs/2302.12066
- SD para VR: https://skybox.blockadelabs.com/
- Reddit (tem demonstração e inscrição para API): https://www.reddit.com/r/StableDiffusion/comments/119l8ra/immersive_diffusion_by_scottie_fox_made_with/
- Explicação sobre por que o SD se esforça para criar imagens escuras ou claras (tldr calcula a média dos níveis de luz): https://www.crosslabs.org/blog/diffusion-with-offset-noise
- Modelo: https://civitai.com/models/10391/noise-offset-for-true-darkness-in-sd
- Demonstração de pipeline de jogo isométrico usando SD, Houdini e multi-controlnet: https://www.reddit.com/r/StableDiffusion/comments/11bkjyo/multicontrolnet_is_a_great_tool_for_creating/
- Criar imagens panorâmicas com menos de 6 GB de VRAM (ainda não funciona com o webui do A1111): https://www.reddit.com/r/StableDiffusion/comments/11a6s7h/you_to_can_create_panorama_images_512x10240_not_a/
- Difusão estável para malha 3D: https://www.reddit.com/r/StableDiffusion/comments/11eiqij/partial_3d_model_from_sd_images_still_in_a_very/
- A festa fraudulenta do iate usa IA para fotos promocionais (risos): https://www.scmp.com/news/people-culture/trending-china/article/3211222/their-fingers-look-fake-deluxe-chinese-yacht- festa-promissora-vip-serviço-de-empregada-afundada-após-estranhamente-sexy
- Tutoriais simples:
- Rede de controle:
- https://www.reddit.com/r/StableDiffusion/comments/11aks00/onepage_simple_tutorials/
- https://i.redd.it/83p0oq8cx7ka1.png
- (recarregar) https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- LORA:
- https://www.reddit.com/r/StableDiffusion/comments/11dqs6w/basic_guide_3_how_to_load_and_use_a_lora/
26/02
- Composer, um grande modelo de difusão controlável (5 bilhões de parâmetros), onde os efeitos de SD e controlnet são combinados no modelo é wip. Também conhecido como manipulação e retenção da composição, deveria ser melhor.
- Informações: https://damo-vilab.github.io/composer-page/
- Github: https://github.com/damo-vilab/composer
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11bbpse/composer_a_large_5_billion_parameters/
- SD 3.0 deve vir com ajuste fino de RLHF para melhor treinamento
- RLHF = os humanos dão feedback sobre o que é bom e o que não é e a máquina ajusta seu aprendizado com base nisso
- ChatGPT foi construído usando RLHF, então compare sua qualidade com outros modelos de texto
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11bvnig/sd_30_will_come_with_rlhf_finetuning_for_better
- Demonstração bem legal do uso de Stable DIffusion e outras ferramentas para fazer um episódio de anime com VFX adequado e outras coisas (silenciar o áudio se o diálogo não for do seu gosto): https://youtu.be/GVT3WUa-48Y
- Nos bastidores (mostra apenas uma visão geral do fluxo de trabalho): https://www.youtube.com/watch?v=_9LX9HSQkWo&t=0s
23/02 (esta e as notícias anteriores não foram postadas porque esqueci o código de edição)
- Novo modelo CLIP de código aberto lançado pela LAION: https://twitter.com/laion_ai/status/1618317487283802113
- TLDR: melhor classificação de imagens -> melhor geração
- Blog: https://laion.ai/blog/giant-openclip/
- Huggingface: https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k
- Modelo Deepfloyd IF será lançado em breve (se não atrasar)
- Código aberto, pode gerar texto com precisão
- Exemplo: https://twitter.com/deepfloydai/status/1610805687361179651
- Linktree deles: https://linktr.ee/deepfloyd
- Modelos de texto + imagem semelhantes:
- Karlo: https://huggingface.co/spaces/kakaobrain/karlo
- Muse (do Google): https://muse-model.github.io/
- O US Copyright Office afirma que as imagens produzidas por Midjourney para "Zarya of the Dawn" não são elegíveis para proteção de direitos autorais, pois não atendem aos requisitos mínimos de autoria humana, no entanto, a história e a disposição das imagens nos quadrinhos são elegíveis para proteção de direitos autorais.
- Em suma, os direitos autorais das imagens de IA (pelo menos nos EUA) ainda são confusos.
- Carta de correspondência: https://fingfx.thomsonreuters.com/gfx/legaldocs/klpygnkyrpg/AI%20COPYRIGHT%20decision.pdf
- Postagem: https://processmechanics.com/2023/02/22/a-mixed-decision-from-the-us-copyright-office/
- Postagem do Reddit: https://www.reddit.com/r/StableDiffusion/comments/1196wl6/us_copyright_office_affirms_copyright_of/
- Informações adicionais sobre leis: https://www.reddit.com/r/bigsleep/comments/uevfch/article_ai_authorship_by_a_law_professor_2020/
22/02
- Huggingface adiciona uma galeria de modelos de difusão: https://huggingface.co/spaces/huggingface-projects/diffusers-gallery
- OpenAI tenta restringir modelos de linguagem e projetos de código aberto: https://arxiv.org/pdf/2301.04246.
- https://twitter.com/harmlessai/status/1624617240225288194
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/111fbvb/closedai_strikes_again
- A1111 lançou um instalador automático para seu webui: https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
- InstructPix2Pix integrado ao webui do A1111
- IP2P é um modelo que pode fazer alterações em uma imagem usando prompts de linguagem natural
- https://www.timothybrooks.com/instruct-pix2pix
- Download do modelo: https://huggingface.co/timbrooks/instruct-pix2pix/tree/main
- Postagem do Reddit com mais informações: https://www.reddit.com/r/StableDiffusion/comments/10tjzmf/instructpix2pix_is_built_straight_into_the/
- Wip de extensão ControlNet + Houdini (software 3D)
- https://www.reddit.com/r/StableDiffusion/comments/115eax6/im_working_on_api_for_the_a1111_controlnet/
- Guia de treinamento LORA: https://i.imgur.com/J8xXLLy.png
- https://www.reddit.com/r/StableDiffusion/comments/110up3f/i_made_a_lora_training_guide_its_a_colab_version/
- Guia ControlNet: https://i.redd.it/a2ifnjcqj4ja1.png
- 2 semanas, mas a extensão ControlNet foi lançada
- Rede neural que adiciona mais controle sobre modelos de difusão estável sem mesclar ou exigir muito img2img
- Provavelmente a maior melhoria na solicitação de composição (corrige muito as mãos!) e img2img
- Permite extrair composições e poses de imagens
- Você pode combinar isso com software de pose 3D como Daz3D, https://magicposer.com/ e a extensão OpenPose para criar personagens com poses específicas rapidamente
- Possui muitos pré-processadores e modelos diferentes
- Na atualização recente, você pode usar vários modelos ao mesmo tempo (habilite isso nas configurações)
- Modelo de exemplo: Esboço - Converte um esboço em base para uma imagem, mantendo a composição básica
- Tem a opção de adivinhar a imagem fornecida e gerar algo mesmo sem aviso
- Explicação simples de todas as configurações e modelos: https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- Modelos podados (bons para a maioria das pessoas): https://civitai.com/models/9868/controlnet-pre-trained-difference-models
- Modelos originais: https://huggingface.co/lllyasviel/ControlNet
- Github original: https://github.com/lllyasviel/ControlNet
- Plug-in A1111 Github: https://github.com/Mikubill/sd-webui-controlnet
- Plug-in OpenPose lançado
- Extraia informações de pose de imagens
- Funciona com ControlNet
- Github: https://github.com/fkunn1326/openpose-editor
- Atender e Excitar: apresenta enfermagem semântica generativa para intervir durante o processo generativo para orientar o modelo para gerar todos os tokens em um prompt
- Github: https://github.com/AttendAndExcite/Attend-and-Excite
- Artigo: https://arxiv.org/abs/2301.13826
- Site: https://attendandexcite.github.io/Attend-and-Excite/
- Plug-in de Photoshop gratuito e de código aberto lançado há algumas semanas
- Github: https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
- Vitrine do Reddit: https://www.reddit.com/r/StableDiffusion/comments/10n3cqo/major_update_automatic1111_photoshop_stable/
- Grande atualização para a GUI do NKMD de algumas semanas atrás
- Postagem do Reddit: https://www.reddit.com/r/StableDiffusion/comments/10kbyro/nmkd_stable_diffusion_gui_190_is_out_now/
- Github: https://github.com/n00mkrad/text2image-gui
- Itch.io: https://nmkd.itch.io/t2i-gui/devlog/480628/sd-gui-190-now-with-instructpix2pix
- Antigo: Google anuncia Dreamix
- Gera vídeos a partir de um prompt e vídeo de entrada
- Antigo: RunwayML trabalhando em vídeo para solicitar vídeo: https://arxiv.org/abs/2302.03011
- Muito antigo, mas relevante por causa do vídeo: Redes neurais em camadas para consistência em vídeo: https://layered-neural-atlases.github.io/
2/2
- A curta animação da Netflix usa geração de imagens para seus planos de fundo
- https://twitter.com/NetflixJP/status/1620357552025538561
- Texto para vídeo dinâmico 3D usando papel 4D lançado: https://make-a-video3d.github.io/
- Pode visualizar de qualquer local e ângulo da câmera
- Text to Live: edição de imagens e vídeos usando texto
- https://text2live.github.io/
- AUTOMATIC1111 lança uma extensão de pixelização para seu webui: https://github.com/AUTOMATIC1111/stable-diffusion-webui-pixelization
- Atualização antiga: você pode visualizar incorporações no webui do AUTOMATIC1111
- Atualização antiga: Waifu Diffusion 1.4 lançado
- Difusores: https://huggingface.co/hakurei/waifu-diffusion
- Picles: https://huggingface.co/hakurei/waifu-diffusion-v1-4
- Atualização antiga: extensão que completa o suporte ao deep2img lançada
- https://github.com/AnonymousCervine/profundidade-image-io-for-SDWebui
- Atualização antiga que esqueci de incluir: VoltaML, semelhante ao SDA, aumenta a velocidade em até 10x (pelo que ouvi)
- https://github.com/VoltaML/voltaML-fast-stable-diffusion
28/01
- API acelerada de difusão estável (SDA) lançada pela SAIL: https://github.com/chavinlo/sda-node
- Usa TensorRT para acelerar a velocidade de geração em placas NVIDIA
- Gere uma imagem de 512x512 @ 25 etapas em meio segundo
- API HTTP
- Mais agendadores de difusores
- Prompts ponderados (ex.: "um gato: 1,2 E um cachorro E um pinguim: 2,2")
- Mais contagens de etapas de agendadores acelerados
- Prompts estendidos (quebrados no momento)
- Você pode testá-lo em seu servidor antes de baixá-lo: https://discord.gg/RWbpNGyN
23/01
- Ação coletiva movida por três artistas contra Stability AI, Midjourney e Deviant Art for Stable Diffusion
- Os mesmos advogados que processaram o Github Copilot
- Postagem do Reddit: https://www.reddit.com/r/StableDiffusion/comments/10bj8jm/class_action_lawsuit_filed_against_stable/
- Vídeo do Youtube que encontrei: https://www.youtube.com/watch?v=gv9cdTh8cUo
- Lançada adaptação de baixa classificação para ajuste fino de difusão rápida de texto para imagem (Lora)
- Alternativa ao Dreambooth, arquivos de 3 MB
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1078nsf/version_010_of_lora_released_alternative_to/
- Github: https://github.com/cloneofsimo/lora
- Caderno: https://github.com/cloneofsimo/lora/blob/master/scripts/run_inference.ipynb
- Safetensors parecem ser a norma agora e devem ser seguros para você baixar e usar.
- Grande repositório de checkpoint com uma bela interface de usuário lançada: https://civitai.com/
- Possui opções de classificação, visualizações, comentários, etc. Parece ser um substituto sem censura para HuggingFace?
- APK Android para geração de imagens 256x256 da NovelAI lançado: https://github.com/EdVince/Stable-Diffusion-NCNN
- Várias atualizações do ChatGPT: https://openai.com/blog/chatgpt/
- Open Assistant: ChatGPT basicamente de código aberto
- Github: https://github.com/LAION-AI/Open-Assistant
- (Um pouco antigo?, relevante por causa do ChatGPT) Maior modelo de linguagem multilíngue aberta: BLOOM
- https://huggingface.co/bigscience/bloom
- https://bigscience.huggingface.co/blog/bloom
- Muitas UI e atualizações funcionais para webui do AUTOMATIC1111, certifique-se de git pull/update para obtê-las
- Postagens antigas do feed de notícias foram arquivadas: https://rentry.org/oldsdupdates
26/11 a 12/12
- Goldmine está sendo reorganizado e com curadoria, a atualização sairá quando parecer organizado
- Atualize sua instalação AUTOMATIC1111 para obter muitas correções e recursos
- Atualizações notáveis que posso encontrar:
- Adicionando --gradio-inpaint-tool e esboço de cores: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/5cd5a672f7889dcc018c3873ec557d645ebe35d0
- Safetensores mesclados: AUTOMATIC1111/stable-diffusion-webui#4930
- Para habilitar SafeTensors para GPU, a variável
SAFETENSORS_FAST_GPU environment
precisa ser definida como 1
- O script de conversão em lote está no PR
- Converter: https://huggingface.co/spaces/safetensors/convert
- Um monte de atualizações/correções de UI
- Suporte adequado ao SD 2.0 (commit primário vinculado): https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- Melhorias para várias ferramentas (como upscalers)
- (esqueci de colocar isso desde que foi criado, mas é muito bom) InvokeAI, uma alternativa completa ao webui do Automatic1111, é atualizado com muitas coisas: https://github.com/invoke-ai/InvokeAI
- InvokeAI precisa de apenas aproximadamente 3,5 GB de VRAM para gerar uma imagem de 512x768 (e menos para imagens menores) e é compatível com Windows/Linux/Mac (M1 e M2).
- Possui recursos como: UI Outpainting, Embedding Management, uma tela unificada (infinita) e um visualizador de imagens
- Muito amigável (UI simples) e super fácil de instalar (1 clique)
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zabmht/invokeai_22_release_the_unified_canvas/
- Difusão Instável atinge meta inicial de US$ 25.000 para treinamento adicional de SD 2.0
- https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd
- Metas:
- Community GPU Cloud: pesquisadores e criadores de modelos comunitários podem solicitar bolsas de computação e treinar seus próprios modelos e conjuntos de dados em nosso sistema, desde que liberem os resultados em código aberto
- Treinamento adicional usando mais etapas e imagens
- Filtrou apenas crianças para evitar uso indevido
- Difusão estável v2.1 lançada: https://stability.ai/blog/stablediffusion2-1-release7-dec-2022
- https://huggingface.co/stabilityai/stable-diffusion-2-1
- Reduziu a força dos filtros para permitir a geração de pessoas melhores
- LORA - Adaptação de baixa classificação para difusão rápida de texto para imagem Espaço de ajuste fino (com base no github abaixo): https://huggingface.co/spaces/ysharma/Low-rank-Adaptation
- Dreambooth com o dobro da velocidade
- Tamanhos de arquivo de modelo super pequenos (3-4 MB)
- Supostamente melhor do que o ajuste fino completo, de acordo com o autor do espaço vinculado
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/ziwwzh/lora_dreambooth_web_ui_finetune_stable_diffusion/
- Dreambooth com 6 GB de VRAM e menos de 16 GB de RAM lançado (LORA acima): https://github.com/cloneofsimo/lora
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zfqkh3/we_can_now_do_dreambooth_on_a_gpu_with_only_6gb/
- Como executar nativamente no Windows sem WSL (usa etapas semelhantes ao guia vinculado): https://www.reddit.com/r/StableDiffusion/comments/ydip3s/guide_dreambooth_training_with_shivamshriraos/
- StableTuner, um sintonizador fino de difusão estável baseado em GUI, lançado: https://github.com/devilismyfriend/StableTuner
- Fácil de instalar e usar, GUI amigável e sintonizador/treinador completo
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zd3xut/stabletuner_a_nononsense_powerful_finetuner_with/
- openOutpaint lançado: https://github.com/zero01101/openOutpaint
- Outpainting de código aberto, auto-hospedado, offline, leve e fácil de usar para webui do AUTOMATIC1111
- Guia: https://github.com/zero01101/openOutpaint/wiki/SBS-Guided-Example
- Manual: https://github.com/zero01101/openOutpaint/wiki/Manual
- Reddit (tem mais recursos listados nos comentários): https://www.reddit.com/r/StableDiffusion/comments/zi2nr9/openoutpaint_v0095_an_aggressively_open_source/
- OpenAI lança ChatGPT, modelo de linguagem para diálogo (informações no link): https://openai.com/blog/chatgpt/
- Demonstração (requer conta): https://chat.openai.com/
- Automatic1111 adiciona suporte para modelo de profundidade SD
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zi6x66/automatic1111_added_support_for_new_thought_model/
- Instruções sobre como usar pelo usuário do Reddit:
- Baixe https://huggingface.co/stabilityai/stable-diffusion-2-profundidade (modelo) e coloque-o em models/Stable-diffusion
- Baixe https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-midas-inference.yaml (config) e coloque-o na mesma pasta do ponto de verificação
- Renomeie a configuração para 512-profundidade-ema.yaml
- Inicie Stable-Diffusion-Webui,z selecione o ponto de verificação 512-profundidade-ema e use img2img como faria normalmente.
- Extensão deepmap2mask lançada que pode criar máscaras de mapa de profundidade 3D -> supostamente melhor img2img
- Parece ser uma alternativa ao condicionamento do peso da máscara de imagem
- Treinamento Dreambooth baseado na extensão de repositório do Shivam atualizada para suportar SD v2.0 (encontre-o na guia de extensões)
- Script para converter modelos de difusores em ckpt e (vice-versa?) lançado: https://github.com/lawfordp2017/diffusers/tree/main/scripts
- Webui AUTOMATIC1111 agora no HuggingFace: https://huggingface.co/spaces/camenduru/webui
- GUI do Pickle Scanner atualizada: https://github.com/diStyApps/Stable-Diffusion-Pickle-Scanner-GUI
- Demonstração de Dream Textures (Stable Diffusion for Blender): https://twitter.com/CarsonKatri/status/1600248599254007810
- Github: https://github.com/carson-katri/dream-textures
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zf2b9k/absolutely_crazy_addon_in_blender_to_add_textures/
- Aplicativo Stable Diffusion IOS lançado: https://www.reddit.com/r/StableDiffusion/comments/z5ndpw/i_made_a_stable_diffusion_for_anime_app_in_your/
- Off-line?
- Loja de aplicativos: https://apps.apple.com/us/app/waifu-art-ai-local-generator/id6444585505
- Serviço simples de treinamento Dreambooth (mas custa dinheiro) lançado: https://openart.ai/photobooth
- Servidor All in one Stable Diffusion (custa dinheiro, mas parece barato e fácil de usar) lançado: https://rundiffusion.com/
- https://www.reddit.com/r/StableDiffusion/comments/zea5rd/thank_you_to_all_the_alpha_testers/
- Waifu Diffusion 1.4 foi adiado para 26 de dezembro devido a um problema no banco de dados (não SD 2.0)
25/11+26/11
- Meu SD Hypertextbook, um tutorial que ensina um novato como instalar e usar o Stable Diffusion, foi lançado: https://rentry.org/sdhypertextbook
- SD 2.0 tem suporte no webui do AUTOMATIC1111: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- (Reenvie com novas informações) Solicitação pull para oferecer suporte a safetensors, o formato rápido e impossível de escolher para substituir o pytorch: AUTOMATIC1111/stable-diffusion-webui#4930
- Git verifique este commit
- Converta seus modelos localmente: leia o primeiro comentário do PR
- Converta seus modelos na nuvem: https://colab.research.google.com/drive/1YYzfYZEJTb3dAo9BX6w6eZINIuRsNv6l#scrollTo=ywbCl6ufwzmW