Actualizaciones SD (3)
->Solo noticias aquí<- ->Encuentre descargas y enlaces aquí: https://rentry.org/sdgoldmine<- ->Cosas antiguas aquí https://rentry.org/oldsdupdates<-
Todos los enlaces de rentry terminan aquí con '.org' y se pueden cambiar a '.co'. Además, utilice la navegación privada/de incógnito al abrir enlaces de Google; de lo contrario, perderá su anonimato/alguien puede engañarlo.
Contacto
Si tiene información/archivos (por ejemplo, incrustados) que no están en esta lista, tiene preguntas o desea ayudar, comuníquese conmigo para brindarme los detalles.
Redes sociales: Viaje: questianon !! YbTGdICxQOw Discord: malt#6065 Reddit: u/questianon Github: https://github.com/questianon Twitter: https://twitter.com/questianon
!!! nota Actualizar instrucciones. Si SD se rompe, retroceda en las confirmaciones hasta que comience a funcionar nuevamente. Instrucciones: * Si está en Windows: 1. Navegue hasta el directorio webui a través del símbolo del sistema o git bash a. Git bash: haga clic derecho > git bash aquí b. Símbolo del sistema: haga clic en el lugar de la "url" entre la carpeta y la flecha hacia abajo y escriba "símbolo del sistema". do. Si no sabe cómo hacer esto, abra el símbolo del sistema, escriba "cd [ruta a stable-diffusion-webui]" (puede obtenerlo haciendo clic derecho en la carpeta en la "url" o manteniendo presionada la tecla Mayús + clic derecho en carpeta stable-diffusion-webui) 2. git pull
3. pip install -r requirements_versions.txt
* Si está en Linux: 1. vaya al directorio webui 2. source ./venv/bin/activate
a. si esto no funciona, ejecute python -m venv venv
de antemano 3. git pull
4. pip install -r requirements.txt
If AUTOMATIC1111's Github goes down, you can try checking his alt repo: https://gitgud.io/AUTOMATIC1111/stable-diffusion-webui
Nota: Si no actualizo en un mes, probablemente decida dejar de documentar y mantenerme al día con SD, ya que me quita demasiado tiempo. Si ese es el caso, mi última actualización será limpiar algunas cosas y hacer una gran actualización final. Para mantenerse al día con las noticias, puede utilizar
Reddit (recomendado ya que todo se filtra si ordenas por arriba): https://www.reddit.com/r/StableDiffusion/ 4chan (mira los comentarios superiores para ver si se agregó algo importante, bueno si quieres estar en Lo mejor de todo): https://boards.4channel.org/g/catalog#s=sdg SDCompendium (no estoy muy seguro de qué tan bueno es este sitio, de un vistazo rápido parece bastante bueno y mantenido. Tiene semanal(?) y noticias mensuales (?), así como un montón de otras cosas): https://www.sdcompendium.com/
Gracias a todos por su apoyo a este repositorio y al desarrollo general de SD. Realmente aprecio a todos los que contribuyeron y espero que lleven SD a nuevas alturas.
4/11
- Si AUTO1111 deja de actualizar su repositorio para siempre y desea actualizaciones, puede explorar esto para buscar otras nuevas: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/ difusión-estable-webui
- Recomendados en comentarios: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/stable-diffusion-webui
- Peticiones de LAION para democratizar la investigación en IA: https://www.openpetition.eu/petition/online/securing-our-digital-future-a-cern-for-open-source-large-scale-ai-research-and-its -seguridad
- Publicación 1 de Reddit: https://www.reddit.com/r/singularity/comments/126j2ok/laion_launches_a_petition_to_democratize_ai/
- Reddit 2: https://www.reddit.com/r/StableDiffusion/comments/126rb5p/laion_launches_a_petition_to_democratize_ai/
- Lanzamiento del modelo Stable Diffusion v2-1-unCLIP: básicamente utiliza la imagen de entrada como mensaje similar a cómo lo hizo DALL-E 2
- Github: https://github.com/Stability-AI/stablediffusion/blob/main/doc/UNCLIP.MD
- Blog: https://stability.ai/blog/stable-diffusion-reimagine
- Modelo: https://huggingface.co/stabilityai/stable-diffusion-2-1-unclip
- Demostración: https://clipdrop.co/stable-diffusion-reimagine
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1218dxk/stable_diffusion_v21unclip_model_released/
- Modelo Kandinsky 2.1: https://github.com/ai-forever/Kandinsky-2
- Modelo de imagen de código abierto que no está basado en Stable Diffusion. ¿Puedo mezclar (?) y fusionar imágenes
- Sitio de Artgen que es gratuito y rápido (?), tiene Kandinsky: https://dreamlike.art/create
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12c9yos/ive_added_kandinsky_21_to_my_website_its_free_and/
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12bf5k2/kandinsky_21_beats_stable_diffusion_and_allows/
- Otro escaparate de Reddit: https://www.reddit.com/r/StableDiffusion/comments/12bexho/kandinsky_21_a_new_open_source_texttoimage_model/
- Lanzamiento del modelo facial ControlNet: https://huggingface.co/CrucibleAI/ControlNetMediaPipeFace
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1281iva/new_controlnet_face_model/
- ChatGPT "jailbreak" para eliminar restricciones (funciona bien en GPT 4): https://github.com/0xk1h0/ChatGPT_DAN
- StyleGAN-T de NVIDIA: síntesis de texto a imagen más rápida que la difusión estable: https://sites.google.com/view/stylegan-t/
- Artículos de dos minutos: https://www.youtube.com/watch?v=qnHbGXmGJCM&t=84s
- Ajuste de texto a vídeo: https://github.com/ExponentialML/Text-To-Video-Finetuning
- Presentación de texto a vídeo de RunwayML: https://www.reddit.com/r/StableDiffusion/comments/12gwa4m/movie_scene_generated_with_text2video_by_runwayml/
- Sitio web con un montón de información y presentaciones: https://research.runwayml.com/gen2
- Modelo de vídeo de parámetros 1.2B: https://huggingface.co/VideoCrafter/t2v-version-1-1
- Demostración: https://huggingface.co/spaces/VideoCrafter/VideoCrafter
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12coe0l/new_12b_parameter_text_to_video_model_is_out/
- Muestras de videos de Cool Reality to Stable Diffusion (flujo de trabajo en comentarios):
- Perro: https://www.reddit.com/r/StableDiffusion/comments/12bdr3p/augmenting_reality_with_stable_diffusion_just/
- Chica bailando: https://www.reddit.com/r/StableDiffusion/comments/12i9qr7/i_transform_real_person_dancing_to_animation/
- Lo del loopback que están haciendo un grupo de tiktokkers (consulte los comentarios para saber cómo hacerlo): https://www.reddit.com/r/StableDiffusion/comments/129zh69/slide_diffusion_loopback_wave_script/
- Imagen SD a Blender para rotar a otra imagen que conserve la profundidad: https://www.reddit.com/r/StableDiffusion/comments/12aurpp/i_found_a_way_to_create_ Different_consistent/
- Creador de script utilizado: https://github.com/thygate/stable-diffusion-webui- Depthmap-script
- Vídeo similar: https://www.reddit.com/r/StableDiffusion/comments/127kagv/stepping_into_places_that_do_not_exist_stable/
- Fusión de tokens (generación más rápida)
- https://github.com/dbolya/tomesd#installation
- https://git.mmaker.moe/mmaker/sd-webui-tome
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1276th7/token_merging_for_fast_stable_diffusion/
- Secuencia de comandos del indicador regional SD: https://github.com/hako-mikan/sd-webui-regional-prompter
- Image Mixer: combina conceptos, estilos y composiciones (como Midjourney): https://huggingface.co/lambdalabs/image-mixer
- GUI del convertidor de CKPT a tensores de seguridad: https://github.com/diStyApps/Safe-and-Stable-Ckpt2Safetensors-Conversion-Tool-GUI
3/23
- Lanzamiento del modelo de difusión de 1.700 millones de parámetros de texto a vídeo de código abierto
- HuggingFace: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synchronous/tree/main
- Demostración de HuggingFace: https://huggingface.co/spaces/damo-vilab/modelscope-text-to-video-synchronous
- Modelo: https://modelscope.cn/models/damo/text-to-video-synchronous/summary
- Archivos de modelo: https://modelscope.cn/models/damo/text-to-video-synchronous/files
- Gorjeo: https://twitter.com/_akhaliq/status/1637321077553606657
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11vbyei/first_open_source_text_to_video_17_billion/
- InstructPix2Pix aplicado a NeRF: https://instruct-nerf2nerf.github.io/
- Github: https://github.com/nerfstudio-project/nerfstudio
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11z7rrg/instructnerf2nerf/
- Multidiffusion, una combinación de Nvidia eDiffi y SD paint-with-words: https://multidiffusion.github.io/
- Github: https://github.com/omerbt/MultiDiffusion
- Demostración: https://huggingface.co/spaces/weizmannscience/multidiffusion-region-based
- Hay una extensión para ello en la webui.
- Borrado de conceptos SD de modelos de difusión: https://erasing.baulab.info/
- Lanzamiento de mitad de viaje v5
- Lanzamiento del modelo GAN a gran escala: https://mingukkang.github.io/GigaGAN/
- Documento: https://arxiv.org/abs/2303.05511
- ChatGPT local con 30B de parámetros para uso local lanzado: https://github.com/antimatter15/alpaca.cpp
- Genial glosario de términos SD: https://sdtools.org/
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11nk957/sdtools_v15/
3/2
- Estabilidad para Blender lanzada: https://platform.stability.ai/docs/integrations/blender
- Forma oficial, gratuita y sin complicaciones de utilizar Stable Diffusion y otros modelos futuros dentro de Blender.
- Solo requiere una conexión a Internet (sin dependencias ni GPU) para realizar efectos de posprocesamiento de IA con solo una conexión a Internet.
- Publicación de discordia: https://discord.com/channels/1002292111942635562/1002292398703001601/1080897334201815150
- Descarga de Github: https://github.com/Stability-AI/stability-blender-addon-public/releases/
- Lanzamiento de la extensión de la biblioteca de manos ControlNet: https://github.com/jexom/sd-webui- Depth-lib
- Deflicker que funciona para lanzamientos SD en 2 semanas
- Sitio web: https://chenyanglei.github.io/deflicker/
- Github: https://github.com/ChenyangLEI/All-In-One-Deflicker
- Demostración del proceso de publicación de difusión para emular cosas como el trazado de rayos (también conocido como entrada de baja resolución a salida de alta resolución): https://www.reddit.com/r/StableDiffusion/comments/11gikby/what_i_think_is_the_future_of_realism_in_games/
3/1
- ControlNet se actualizó para proporcionar correcciones de imágenes específicas (es decir, manos) al tener un tiempo de inicio de guía retrasado
- Github: Mikubill/sd-webui-controlnet#393
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11d7it7/targeted_hand_fix_is_finallly_possible_at/
- Lanzamiento de la extensión de bucle invertido de video para webui de A1111: https://github.com/fishslot/video_loopback_for_webui
- Mejora la estabilidad del vídeo mediante loopback y desenfoque temporal.
- Diseñado para animaciones de personajes y generalmente debe usarse con Lora o DreamBooth.
- Multi-controlnet para pose + manos + demostración de imagen (soluciona muchos problemas con la anatomía): https://www.reddit.com/r/StableDiffusion/comments/11c4m4q/one_of_the_best_uses_for_multicontrolnet_from/
- Equipo de licuadora: https://toyxyz.gumroad.com/l/ciojz
- Otra demostración: https://www.reddit.com/r/StableDiffusion/comments/11e15mw/highly_improved_hand_and_feet_generation_with/
- Síntesis de imágenes condicionales compatibles con 3D lanzada: https://github.com/dunbar12138/pix2pix3D
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11cudxv/pix2pix3d_3daware_conditional_image_synchronous/
- Juego de rol isométrico "Tales of Syn" desarrollado con Stable Diffusion, GPT3 y software de creación de juegos tradicional: https://www.reddit.com/r/StableDiffusion/comments/11fb7oq/isometric_rpg_game_tales_of_syn_developed_with/
- Blog: https://talesofsyn.com/posts/creating-isometric-rpg-game-backgrounds
- SD sin conexión en productos Apple con ~3-4 it/s (según lo afirma el desarrollador) y controlnet: https://apps.apple.com/gb/app/draw-things-ai-generación/id6444050820
- ChatGPT lanza su API a $0,002 por cada 1.000 tokens: https://openai.com/blog/introtaining-chatgpt-and-whisper-apis
- CLIP de entrenamiento para contar: https://arxiv.org/abs/2302.12066
- SD a realidad virtual: https://skybox.blockadelabs.com/
- Reddit (tiene demostración y registro para API): https://www.reddit.com/r/StableDiffusion/comments/119l8ra/immersive_diffusion_by_scottie_fox_made_with/
- Explicación de por qué SD tiene dificultades para crear imágenes oscuras o claras (tldr promedia los niveles de luz): https://www.crosslabs.org/blog/diffusion-with-offset-noise
- Modelo: https://civitai.com/models/10391/noise-offset-for-true-darkness-in-sd
- Demostración de canalización de juegos isométricos usando SD, Houdini y multi-controlnet: https://www.reddit.com/r/StableDiffusion/comments/11bkjyo/multicontrolnet_is_a_great_tool_for_creating/
- Creación de imágenes panorámicas con menos de 6 GB de VRAM (aún no funciona con la interfaz web de A1111): https://www.reddit.com/r/StableDiffusion/comments/11a6s7h/you_to_can_create_panorama_images_512x10240_not_a/
- Difusión estable a malla 3D: https://www.reddit.com/r/StableDiffusion/comments/11eiqij/partial_3d_model_from_sd_images_still_in_a_very/
- Una fiesta fraudulenta en yate utiliza IA para fotografías promocionales (risas): https://www.scmp.com/news/people-culture/trending-china/article/3211222/their-fingers-look-fake-deluxe-chinese-yacht- fiesta-prometedor-servicio-de-sirvienta-vip-hundido-después-de-freaky-sexy
- Tutoriales sencillos:
- Controlnet:
- https://www.reddit.com/r/StableDiffusion/comments/11aks00/onepage_simple_tutorials/
- https://i.redd.it/83p0oq8cx7ka1.png
- (volver a cargar) https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- LORA:
- https://www.reddit.com/r/StableDiffusion/comments/11dqs6w/basic_guide_3_how_to_load_and_use_a_lora/
2/26
- Composer, un modelo de difusión controlable grande (5 mil millones de parámetros), donde los efectos de SD y controlnet se combinan en el modelo es wip. También conocido como manipular y retener la composición debería ser mejor.
- Información: https://damo-vilab.github.io/composer-page/
- Github: https://github.com/damo-vilab/composer
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11bbpse/composer_a_large_5_billion_parameters/
- SD 3.0 debería venir con ajustes RLHF para un mejor entrenamiento
- RLHF = los humanos dan retroalimentación sobre lo que es bueno y lo que no y la máquina ajusta su aprendizaje en base a eso
- ChatGPT se creó utilizando RLHF, así que compare qué tan bueno es con otros modelos de texto
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11bvnig/sd_30_will_come_with_rlhf_finetuning_for_better
- Muestra genial del uso de Stable DIffusion y otras herramientas para crear un episodio de anime con efectos visuales adecuados y demás (silencia el audio si el diálogo no es de tu agrado): https://youtu.be/GVT3WUa-48Y
- Detrás de escena (solo muestra una descripción general del flujo de trabajo): https://www.youtube.com/watch?v=_9LX9HSQkWo&t=0s
23/02 (esta y las noticias anteriores no se publicaron porque olvidé el código de edición)
- Nuevo modelo CLIP de código abierto lanzado por LAION: https://twitter.com/laion_ai/status/1618317487283802113
- TLDR: mejor clasificación de imágenes --> mejor generación
- Blog: https://laion.ai/blog/giant-openclip/
- Cara de abrazo: https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k
- El modelo Deepfloyd IF saldrá pronto (si no se retrasa)
- Código abierto, puede generar texto con precisión
- Ejemplo: https://twitter.com/deepfloydai/status/1610805687361179651
- Su árbol de enlaces: https://linktr.ee/deepfloyd
- Modelos similares de texto + imagen:
- Karlo: https://huggingface.co/spaces/kakaobrain/karlo
- Musa (por Google): https://muse-model.github.io/
- La Oficina de Derechos de Autor de EE. UU. afirma que las imágenes producidas por Midjourney para "Zarya of the Dawn" no son elegibles para la protección de derechos de autor ya que no cumplieron con los requisitos mínimos de autoría humana; sin embargo, la historia y la disposición de las imágenes en el cómic son elegibles para la protección de derechos de autor.
- En resumen, los derechos de autor de las imágenes de IA (al menos en Estados Unidos) todavía son confusos.
- Carta de correspondencia: https://fingfx.thomsonreuters.com/gfx/legaldocs/klpygnkyrpg/AI%20COPYRIGHT%20decision.pdf
- Publicación: https://processmechanics.com/2023/02/22/a-mixed-decision-from-the-us-copyright-office/
- Publicación de Reddit: https://www.reddit.com/r/StableDiffusion/comments/1196wl6/us_copyright_office_affirms_copyright_of/
- Información adicional sobre la ley: https://www.reddit.com/r/bigsleep/comments/uevfch/article_ai_authorship_by_a_law_professor_2020/
2/22
- Huggingface agrega una galería de modelos de difusión: https://huggingface.co/spaces/huggingface-projects/diffusers-gallery
- OpenAI intenta restringir los modelos de lenguaje y los proyectos de código abierto: https://arxiv.org/pdf/2301.04246.
- https://twitter.com/harmlessai/status/1624617240225288194
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/111fbvb/closedai_strikes_again
- A1111 lanzó un instalador automático para su webui: https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
- InstructPix2Pix integrado en la webui de A1111
- IP2P es un modelo que puede realizar cambios en una imagen mediante indicaciones en lenguaje natural.
- https://www.timothybrooks.com/instruct-pix2pix
- Descarga del modelo: https://huggingface.co/timbrooks/instruct-pix2pix/tree/main
- Publicación de Reddit con más información: https://www.reddit.com/r/StableDiffusion/comments/10tjzmf/instructpix2pix_is_built_straight_into_the/
- Wip de extensión ControlNet + Houdini (software 3D)
- https://www.reddit.com/r/StableDiffusion/comments/115eax6/im_working_on_api_for_the_a1111_controlnet/
- Guía de formación LORA: https://i.imgur.com/J8xXLLy.png
- https://www.reddit.com/r/StableDiffusion/comments/110up3f/i_made_a_lora_training_guide_its_a_colab_version/
- Guía ControlNet: https://i.redd.it/a2ifnjcqj4ja1.png
- Tiene 2 semanas pero se lanzó la extensión ControlNet
- Red neuronal que agrega más control sobre los modelos de Difusión Estable sin fusionarse ni requerir mucho img2img
- Probablemente la mayor mejora en las pautas de composición (¡arregla mucho las manos!) e img2img
- Permite extraer composiciones y poses de imágenes.
- Puedes combinar esto con software de poses 3D como Daz3D, https://magicposer.com/ y la extensión OpenPose para crear personajes con poses específicas rápidamente.
- Tiene muchos preprocesadores y modelos diferentes.
- En una actualización reciente, puedes usar varios modelos a la vez (habilítalo en la configuración)
- Modelo de ejemplo: Boceto: convierte un boceto en una base para una imagen, conservando la composición básica.
- Tiene una opción para adivinar la imagen proporcionada y generar algo incluso sin que se le solicite
- Explicación simple de todas las configuraciones y modelos: https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- Modelos podados (buenos para la mayoría de las personas): https://civitai.com/models/9868/controlnet-pre-trained-difference-models
- Modelos originales: https://huggingface.co/lllyasviel/ControlNet
- Github original: https://github.com/lllyasviel/ControlNet
- Complemento A1111 Github: https://github.com/Mikubill/sd-webui-controlnet
- Lanzamiento del complemento OpenPose
- Extraer información de pose de imágenes
- Funciona con ControlNet
- Github: https://github.com/fkunn1326/openpose-editor
- Asistir y excitar: presenta la enfermería semántica generativa para intervenir durante el proceso generativo para guiar al modelo a generar todos los tokens en un mensaje.
- Github: https://github.com/AttendAndExcite/Attend-and-Excite
- Documento: https://arxiv.org/abs/2301.13826
- Sitio web: https://attendandexcite.github.io/Attend-and-Excite/
- Complemento de Photoshop gratuito y de código abierto lanzado hace unas semanas
- Github: https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
- Presentación de Reddit: https://www.reddit.com/r/StableDiffusion/comments/10n3cqo/major_update_automatic1111_photoshop_stable/
- Gran actualización para la GUI de NKMD de hace unas semanas
- Publicación de Reddit: https://www.reddit.com/r/StableDiffusion/comments/10kbyro/nmkd_stable_diffusion_gui_190_is_out_now/
- Github: https://github.com/n00mkrad/text2image-gui
- Picazón.io: https://nmkd.itch.io/t2i-gui/devlog/480628/sd-gui-190-now-with-instructpix2pix
- Antiguo: Google anuncia Dreamix
- Genera videos a partir de un mensaje y un video de entrada.
- Antiguo: RunwayML trabajando en video para solicitar video: https://arxiv.org/abs/2302.03011
- Súper antiguo, pero relevante debido al video: redes neuronales en capas para mayor coherencia en el video: https://layered-neural-atlases.github.io/
2/2
- La animación corta de Netflix utiliza la generación de imágenes para sus fondos
- https://twitter.com/NetflixJP/status/1620357552025538561
- Lanzamiento de texto a video dinámico 3D usando papel 4D: https://make-a-video3d.github.io/
- Puede ver desde cualquier ubicación y ángulo de la cámara
- Text to Live: Edición de imágenes y vídeos mediante texto
- https://text2live.github.io/
- AUTOMATIC1111 lanza una extensión de pixelización para su webui: https://github.com/AUTOMATIC1111/stable-diffusion-webui-pixelization
- Actualización antigua: puede obtener una vista previa de las incrustaciones en la interfaz web de AUTOMATIC1111
- Actualización antigua: Waifu Diffusion 1.4 lanzado
- Difusores: https://huggingface.co/hakurei/waifu-diffusion
- Pepinillo: https://huggingface.co/hakurei/waifu-diffusion-v1-4
- Actualización anterior: se lanzó la extensión que completa el soporte de Depth2img
- https://github.com/AnonymousCervine/ Depth-image-io-for-SDWebui
- Actualización anterior que olvidé incluir: VoltaML, similar a SDA, aumenta las velocidades hasta 10 veces (por lo que he oído)
- https://github.com/VoltaML/voltaML-fast-stable-diffusion
1/28
- API acelerada de difusión estable (SDA) lanzada por SAIL: https://github.com/chavinlo/sda-node
- Utiliza TensorRT para acelerar las velocidades de generación en tarjetas NVIDIA
- Genera una imagen de 512x512 @ 25 pasos en medio segundo
- API HTTP
- Más programadores de difusores
- Indicaciones ponderadas (ej.: "un gato :1.2 Y un perro Y un pingüino :2.2")
- Más recuentos de pasos de programadores acelerados
- Avisos extendidos (rotos en este momento)
- Puedes probarlo en su servidor antes de descargarlo: https://discord.gg/RWbpNGyN
1/23
- Demanda colectiva presentada por tres artistas contra Stability AI, Midjourney y Deviant Art for Stable Diffusion
- Los mismos abogados que demandaron a Github Copilot
- Publicación de Reddit: https://www.reddit.com/r/StableDiffusion/comments/10bj8jm/class_action_lawsuit_filed_against_stable/
- Vídeo de Youtube que encontré: https://www.youtube.com/watch?v=gv9cdTh8cUo
- Lanzamiento de la adaptación de bajo rango para el ajuste fino de la difusión rápida de texto a imagen (Lora)
- Alternativa a Dreambooth, archivos de 3mb
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1078nsf/version_010_of_lora_released_alternative_to/
- Github: https://github.com/cloneofsimo/lora
- Cuaderno: https://github.com/cloneofsimo/lora/blob/master/scripts/run_inference.ipynb
- Los tensores de seguridad parecen ser la norma ahora y deberían ser seguros para descargar y usar.
- Se lanzó un gran repositorio de puntos de control con una agradable interfaz de usuario: https://civitai.com/
- Tiene opciones de clasificación, vistas previas, comentarios, etc. ¿Parece ser un reemplazo sin censura de HuggingFace?
- Lanzamiento del APK de Android para generar imágenes de 256x256 desde NovelAI: https://github.com/EdVince/Stable-Diffusion-NCNN
- Varias actualizaciones de ChatGPT: https://openai.com/blog/chatgpt/
- Asistente abierto: ChatGPT básicamente de código abierto
- Github: https://github.com/LAION-AI/Open-Assistant
- (¿Un poco antiguo?, relevante debido a ChatGPT) El modelo de lenguaje multilingüe abierto más grande: BLOOM
- https://huggingface.co/bigscience/bloom
- https://bigscience.huggingface.co/blog/bloom
- Muchas actualizaciones funcionales y de interfaz de usuario para la interfaz web de AUTOMATIC1111, asegúrese de obtener git pull/update para obtenerlas
- Se han archivado publicaciones antiguas de noticias: https://rentry.org/oldsdupdates
26/11 al 12/12
- Goldmine está siendo reorganizado y curado, la actualización saldrá cuando parezca organizado
- Actualice su instalación AUTOMATIC1111 para obtener muchas correcciones y características
- Actualizaciones notables que puedo encontrar:
- Agregando --gradio-inpaint-tool y color-sketch: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/5cd5a672f7889dcc018c3873ec557d645ebe35d0
- Safetensors fusionados: AUTOMATIC1111/stable-diffusion-webui#4930
- Para habilitar SafeTensors para GPU, la variable
SAFETENSORS_FAST_GPU environment
debe establecerse en 1
- El script de conversión por lotes está en el PR
- Convertir: https://huggingface.co/spaces/safetensors/convert
- Un montón de actualizaciones/correcciones de la interfaz de usuario
- Compatibilidad adecuada con SD 2.0 (compromiso principal vinculado): https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- Mejoras para varias herramientas (como escaladores)
- (Olvidé poner esto desde que se creó, pero es realmente bueno) InvokeAI, una alternativa todo en uno a la webui de Automatic1111, se actualiza con muchas cosas: https://github.com/invoke-ai/InvokeAI
- InvokeAI necesita solo ~3,5 GB de VRAM para generar una imagen de 512x768 (y menos para imágenes más pequeñas) y es compatible con Windows/Linux/Mac (M1 y M2).
- Tiene características como: UI Outpainting, administración de incrustaciones, un lienzo unificado (infinito) y un visor de imágenes.
- Muy fácil de usar (UI simple) y súper fácil de instalar (1 clic)
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zabmht/invokeai_22_release_the_unified_canvas/
- Unstable Diffusion alcanza el objetivo inicial de 25.000 dólares para seguir formando SD 2.0
- https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd
- Objetivos:
- Community GPU Cloud: los investigadores y los creadores de modelos comunitarios pueden solicitar subvenciones informáticas y entrenar sus propios modelos y conjuntos de datos en nuestro sistema, siempre que publiquen los resultados en código abierto.
- Formación adicional utilizando más pasos e imágenes.
- Solo se filtran los niños para evitar el uso indebido
- Lanzamiento de Difusión estable v2.1: https://stability.ai/blog/stablediffusion2-1-release7-dec-2022
- https://huggingface.co/stabilityai/stable-diffusion-2-1
- Se redujo la fuerza de los filtros para permitir generar mejores personas.
- LORA: Adaptación de rango bajo para una rápida difusión de texto a imagen Espacio de ajuste fino (basado en el github desde abajo): https://huggingface.co/spaces/ysharma/Low-rank-Adaptation
- Dreambooth al doble de velocidad
- Tamaños de archivo de modelo súper pequeños (3-4 MB)
- Supuestamente mejor que un ajuste completo según el autor del espacio vinculado
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/ziwwzh/lora_dreambooth_web_ui_finetune_stable_diffusion/
- Dreambooth con 6 GB de VRAM y menos de 16 GB de RAM lanzados (LORA desde arriba): https://github.com/cloneofsimo/lora
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zfqkh3/we_can_now_do_dreambooth_on_a_gpu_with_only_6gb/
- Cómo ejecutar Windows de forma nativa sin WSL (utiliza pasos similares a la guía vinculada): https://www.reddit.com/r/StableDiffusion/comments/ydip3s/guide_dreambooth_training_with_shivamshriraos/
- StableTuner, un sintonizador de difusión estable basado en GUI, lanzado: https://github.com/devilismyfriend/StableTuner
- Fácil de instalar y usar, GUI amigable y afinador/entrenador todo en uno
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zd3xut/stabletuner_a_nononsense_powerful_finetuner_with/
- openOutpaint lanzado: https://github.com/zero01101/openOutpaint
- Pintura exterior de código abierto, autohospedado, fuera de línea, liviana y fácil de usar para la interfaz web de AUTOMATIC1111
- Guía: https://github.com/zero01101/openOutpaint/wiki/SBS-Guided-Example
- Manual: https://github.com/zero01101/openOutpaint/wiki/Manual
- Reddit (tiene más funciones enumeradas en los comentarios): https://www.reddit.com/r/StableDiffusion/comments/zi2nr9/openoutpaint_v0095_an_aggressively_open_source/
- OpenAI lanza ChatGPT, un modelo de lenguaje para el diálogo (información en el enlace): https://openai.com/blog/chatgpt/
- Demostración (requiere cuenta): https://chat.openai.com/
- Automatic1111 agrega soporte para el modelo de profundidad SD
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zi6x66/automatic1111_added_support_for_new_ Depth_model/
- Instrucciones de uso por parte del usuario de reddit:
- Descargue https://huggingface.co/stabilityai/stable-diffusion-2- Depth (modelo) y colóquelo en models/Stable-diffusion
- Descargue https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-midas-inference.yaml (config) y colóquelo en la misma carpeta que el punto de control.
- Cambie el nombre de la configuración a 512-profundidad-ema.yaml
- Inicie Stable-Diffusion-Webui, seleccione el punto de control 512- Depth-ema y use img2img como lo haría normalmente.
- Se lanzó la extensión Depthmap2mask que puede crear máscaras de mapas de profundidad 3D -> supuestamente mejor img2img
- Parece ser una alternativa para condicionar el peso de la máscara de imagen.
- Capacitación de Dreambooth basada en la extensión del repositorio de Shivam actualizada para admitir SD v2.0 (encuéntrela en la pestaña de extensiones)
- Script para convertir modelos de difusores a ckpt y (¿viceversa?) publicado: https://github.com/lawfordp2017/diffusers/tree/main/scripts
- AUTOMATIC1111 webui ahora en HuggingFace: https://huggingface.co/spaces/camenduru/webui
- GUI del escáner Pickle actualizada: https://github.com/diStyApps/Stable-Diffusion-Pickle-Scanner-GUI
- Demostración de Dream Textures (difusión estable para Blender): https://twitter.com/CarsonKatri/status/1600248599254007810
- Github: https://github.com/carson-katri/dream-textures
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zf2b9k/absolutely_crazy_addon_in_blender_to_add_textures/
- Lanzamiento de la aplicación IOS Stable Diffusion: https://www.reddit.com/r/StableDiffusion/comments/z5ndpw/i_made_a_stable_diffusion_for_anime_app_in_your/
- ¿Desconectado?
- Tienda de aplicaciones: https://apps.apple.com/us/app/waifu-art-ai-local-generator/id6444585505
- Lanzamiento del servicio de capacitación Simple Dreambooth (pero cuesta dinero): https://openart.ai/photobooth
- Lanzamiento del servidor de difusión estable todo en uno (cuesta dinero pero parece barato y fácil de usar): https://rundiffusion.com/
- https://www.reddit.com/r/StableDiffusion/comments/zea5rd/thank_you_to_all_the_alpha_testers/
- Waifu Diffusion 1.4 se retrasa hasta el 26 de diciembre debido a un problema con la base de datos (no SD 2.0)
25/11+26/11
- Se publica My SD Hypertextbook, un tutorial que enseña a un recién llegado cómo instalar y usar Stable Diffusion: https://rentry.org/sdhypertextbook
- SD 2.0 tiene soporte en la webui de AUTOMATIC1111: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- (Volver a cargar con nueva información) Solicitud de extracción para admitir safetensores, el formato rápido y no seleccionable para reemplazar pytorch: AUTOMATIC1111/stable-diffusion-webui#4930
- Git revisa este compromiso
- Convierta sus modelos localmente: lea el primer comentario del PR
- Convierte tus modelos en la nube: https://colab.research.google.com/drive/1YYzfYZEJTb3dAo9BX6w6eZINIuRsNv6l#scrollTo=ywbCl6ufwzmW