Обновления SD (3)
->Здесь только новости<- ->Ссылки и файлы для скачивания можно найти здесь: https://rentry.org/sdgoldmine<- ->Старые материалы здесь https://rentry.org/oldsdupdates<-
Все ссылки на аренду здесь заканчиваются расширением «.org», и их можно изменить на «.co». Кроме того, используйте режим инкогнито/приватный просмотр при открытии ссылок Google, иначе вы потеряете анонимность или кто-то может вас доксовать.
Контакт
Если у вас есть информация/файлы (например, встроенные), которых нет в этом списке, есть вопросы или вы хотите помочь, свяжитесь со мной и сообщите подробности.
Социальные сети: Trip: questianon !!YbTGdICxQOw Discord: malt#6065 Reddit: u/questianon Github: https://github.com/questianon Twitter: https://twitter.com/questianon
!!! Примечание. Инструкции по обновлению. Если SD не работает, вернитесь к коммитам, пока он снова не начнет работать. Инструкции: * Если в Windows: 1. перейдите в каталог webui через командную строку или git bash a. Git bash: щелкните правой кнопкой мыши > git bash здесь b. Командная строка: щелкните место в URL-адресе между папкой и стрелкой вниз и введите «командная строка». в. Если вы не знаете, как это сделать, откройте командную строку и введите «cd [путь к стабильному-diffusion-webui]» (вы можете получить это, щелкнув правой кнопкой мыши папку в «URL-адресе» или удерживая Shift + щелчок правой кнопкой мыши по папка стабильной-диффузии-webui) 2. git pull
3. pip install -r requirements_versions.txt
* Если в Linux: 1. перейдите в каталог webui 2. source ./venv/bin/activate
a. если это не сработает, заранее запустите python -m venv venv
3. git pull
4. pip install -r requirements.txt
If AUTOMATIC1111's Github goes down, you can try checking his alt repo: https://gitgud.io/AUTOMATIC1111/stable-diffusion-webui
Примечание. Если я не обновлюсь в течение месяца, я, вероятно, решил отказаться от документирования и поддержки SD, поскольку это отнимает у меня слишком много времени. Если это так, то мое последнее обновление будет заключаться в очистке некоторых вещей и создании одного большого финального обновления. Чтобы быть в курсе новостей, вы можете использовать
Reddit (рекомендуется, поскольку все фильтруется, если вы сортируете по началу): https://www.reddit.com/r/StableDiffusion/ 4chan (посмотрите верхние комментарии, чтобы узнать, не было ли добавлено что-нибудь важное, хорошо, если вы хотите быть на самое главное): https://boards.4channel.org/g/catalog#s=sdg SDCompendium (не слишком уверен, насколько хорош этот сайт, при беглом просмотре он кажется довольно хорошим и поддерживаемым. Еженедельно (?) и ежемесячные(?) новости, а также массу другого материала): https://www.sdcompendium.com/
Спасибо всем за поддержку этого репозитория и общего развития SD. Я очень ценю всех, кто внес свой вклад, и надеюсь, что вы поднимете SD на новую высоту.
4/11
- Если AUTO1111 навсегда перестанет обновлять свое репозиторий и вам нужны обновления, вы можете просмотреть это в поисках новых: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/ стабильная диффузия-webui
- Рекомендуемые в комментариях: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/stable-diffusion-webui
- Петиции LAION о демократизации исследований в области ИИ: https://www.openpetition.eu/petition/online/securing-our-digital-future-a-cern-for-open-source-large-scale-ai-research-and-its -безопасность
- Сообщение Reddit 1: https://www.reddit.com/r/singularity/comments/126j2ok/laion_launches_a_petition_to_democratize_ai/
- Reddit 2: https://www.reddit.com/r/StableDiffusion/comments/126rb5p/laion_launches_a_petition_to_democratize_ai/
- Выпущена модель Stable Diffusion v2-1-unCLIP: в основном используется входное изображение в качестве подсказки, аналогично тому, как это делал DALL-E 2.
- Github: https://github.com/Stability-AI/stablediffusion/blob/main/doc/UNCLIP.MD
- Блог: https://stability.ai/blog/stable-diffusion-reimagine
- Модель: https://huggingface.co/stabilityai/stable-diffusion-2-1-unclip
- Демо: https://clipdrop.co/stable-diffusion-reimagine
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1218dxk/stable_diffusion_v21unclip_model_released/
- Модель Кандинского 2.1: https://github.com/ai-forever/Kandinsky-2
- Модель изображения с открытым исходным кодом, не основанная на стабильной диффузии. Можно ли смешивать (?) и объединять изображения
- Бесплатный и быстрый(?) сайт Artgen с Кандинским: https://dreamlike.art/create
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12c9yos/ive_added_kandinsky_21_to_my_website_its_free_and/
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12bf5k2/kandinsky_21_beats_stable_diffusion_and_allows/
- Еще одна презентация Reddit: https://www.reddit.com/r/StableDiffusion/comments/12bexho/kandinsky_21_a_new_open_source_texttoimage_model/
- Выпущена модель лица ControlNet: https://huggingface.co/CrucibleAI/ControlNetMediaPipeFace
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1281iva/new_controlnet_face_model/
- «Джейлбрейк» ChatGPT для снятия ограничений (хорошо работает на GPT 4): https://github.com/0xk1h0/ChatGPT_DAN
- StyleGAN-T от NVIDIA — более быстрый синтез текста в изображение, чем стабильное распространение: https://sites.google.com/view/stylegan-t/
- Двухминутные доклады: https://www.youtube.com/watch?v=qnHbGXmGJCM&t=84s.
- Точная настройка текста в видео: https://github.com/ExponentialML/Text-To-Video-Finetuning
- Демонстрация преобразования текста RunwayML в видео: https://www.reddit.com/r/StableDiffusion/comments/12gwa4m/movie_scene_generated_with_text2video_by_runwayml/
- Веб-сайт с массой информации + витрины: https://research.runwayml.com/gen2
- Модель видео с параметрами 1.2B: https://huggingface.co/VideoCrafter/t2v-version-1-1
- Демо: https://huggingface.co/spaces/VideoCrafter/VideoCrafter
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/12coe0l/new_12b_parameter_text_to_video_model_is_out/
- Крутая реальность для видео-презентаций Stable Diffusion (рабочий процесс в комментариях):
- Собака: https://www.reddit.com/r/StableDiffusion/comments/12bdr3p/augmenting_reality_with_stable_diffusion_just/
- Танцующая девушка: https://www.reddit.com/r/StableDiffusion/comments/12i9qr7/i_transform_real_person_dancing_to_animation/
- Закольцовка, которую делает группа тиктоккеров (как это сделать, читайте в комментариях): https://www.reddit.com/r/StableDiffusion/comments/129zh69/slide_diffusion_loopback_wave_script/
- SD-изображение в Blender для поворота на другое изображение, сохраняющее глубину: https://www.reddit.com/r/StableDiffusion/comments/12aurpp/i_found_a_way_to_create_dependent_consistent/
- Используемый создатель скрипта: https://github.com/thygate/stable-diffusion-webui-lengthmap-script.
- Аналогичное видео: https://www.reddit.com/r/StableDiffusion/comments/127kagv/stepping_into_places_that_do_not_exist_stable/
- Слияние токенов (более быстрая генерация)
- https://github.com/dbolya/tomesd#installation
- https://git.mmaker.moe/mmaker/sd-webui-tome
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1276th7/token_merging_for_fast_stable_diffusion/
- Региональный сценарий подсказки SD: https://github.com/hako-mikan/sd-webui-regional-prompter
- Image Mixer — объединяйте концепции, стили и композиции (например, Midjourney): https://huggingface.co/lambdalabs/image-mixer
- Графический интерфейс конвертера CKPT в безопасные тензоры: https://github.com/diStyApps/Safe-and-Stable-Ckpt2Safetensors-Conversion-Tool-GUI
23 марта
- Выпущена модель диффузии текста с открытым исходным кодом на 1,7 миллиарда параметров
- HuggingFace: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synthesis/tree/main
- Демонстрация HuggingFace: https://huggingface.co/spaces/damo-vilab/modelscope-text-to-video-synthesis
- Модель: https://modelscope.cn/models/damo/text-to-video-synthesis/summary
- Файлы моделей: https://modelscope.cn/models/damo/text-to-video-synthesis/files.
- Твиттер: https://twitter.com/_akhaliq/status/1637321077553606657
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11vbyei/first_open_source_text_to_video_17_billion/
- InstructPix2Pix применяется к NeRF: https://instruct-nerf2nerf.github.io/
- Гитхаб: https://github.com/nerfstudio-project/nerfstudio
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11z7rrg/instructnerf2nerf/
- Multidiffusion, комбинация Nvidia eDiffi и SD-рисования словами: https://multidiffusion.github.io/
- Гитхаб: https://github.com/omerbt/MultiDiffusion
- Демо: https://huggingface.co/spaces/weizmannscience/multidiffusion-region-based
- В вэбуи есть расширение для него.
- Удаление концепций УР из диффузных моделей: https://erasing.baulab.info/
- Выпущена версия Midjourney v5.
- Выпущена крупномасштабная модель GAN: https://mingukkang.github.io/GigaGAN/
- Статья: https://arxiv.org/abs/2303.05511.
- Выпущен локальный ChatGPT с 30B параметрами для локального использования: https://github.com/antimatter15/alpaca.cpp
- Крутой глоссарий терминов SD: https://sdtools.org/
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11nk957/sdtools_v15/
3/2
- Выпущена стабильность для Blender: https://platform.stability.ai/docs/integrations/blender.
- Официально поддерживаемый, бесплатный и простой способ использования Stable Diffusion и других будущих моделей внутри Blender.
- Требуется только подключение к Интернету (без зависимостей или графического процессора) для выполнения эффектов постобработки ИИ с помощью только подключения к Интернету.
- Пост в Discord: https://discord.com/channels/1002292111942635562/1002292398703001601/1080897334201815150
- Загрузка с Github: https://github.com/Stability-AI/stability-blender-addon-public/releases/
- Выпущено расширение библиотеки рук ControlNet: https://github.com/jexom/sd-webui-length-lib
- Дефликер, который работает для выпусков SD через 2 недели.
- Веб-сайт: https://chenyanglei.github.io/deflicker/
- Github: https://github.com/ChenyangLEI/All-In-One-Deflicker
- Демонстрация пост-процесса диффузии для эмуляции таких вещей, как трассировка лучей (также известная как вход с низким разрешением для вывода с высоким разрешением): https://www.reddit.com/r/StableDiffusion/comments/11gikby/what_i_think_is_the_future_of_realism_in_games/
3/1
- ControlNet обновлен, чтобы обеспечить целевые исправления изображений (например, рук) за счет отложенного времени начала навигации.
- Github: Микубилл/sd-webui-controlnet#393
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11d7it7/targeted_hand_fix_is_finallly_possible_at/
- Выпущено расширение видеопетли для веб-интерфейса A1111: https://github.com/fishslot/video_loopback_for_webui
- Повышает стабильность видео за счет обратной петли и временного размытия.
- Предназначен для анимации персонажей и обычно должен использоваться с Lora или DreamBooth.
- Мультиконтрольная сеть для демонстрации позы + рук + изображения (исправляет множество проблем с анатомией): https://www.reddit.com/r/StableDiffusion/comments/11c4m4q/one_of_the_best_uses_for_multicontrolnet_from/
- Установка для блендера: https://toyxyz.gumroad.com/l/ciojz
- Еще одна демонстрация: https://www.reddit.com/r/StableDiffusion/comments/11e15mw/highly_improved_hand_and_feet_generation_with/
- Выпущен синтез условного изображения с поддержкой 3D: https://github.com/dunbar12138/pix2pix3D
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11cudxv/pix2pix3d_3daware_conditional_image_synthesis/
- Изометрическая ролевая игра Tales of Syn, разработанная с использованием Stable Diffusion, GPT3 и традиционного программного обеспечения для создания игр: https://www.reddit.com/r/StableDiffusion/comments/11fb7oq/isometric_rpg_game_tales_of_syn_developed_with/
- Блог: https://talesofsyn.com/posts/creating-isometric-rpg-game-backgrounds
- Автономная SD на продуктах Apple с ~ 3–4 ИТ/с (как утверждает разработчик) и сетью управления: https://apps.apple.com/gb/app/draw-things-ai-generation/id6444050820
- ChatGPT выпускает свой API по цене 0,002 доллара США за 1 тыс. токенов: https://openai.com/blog/introducing-chatgpt-and-whisper-apis
- Обучение CLIP подсчету: https://arxiv.org/abs/2302.12066
- SD в VR: https://skybox.blockadelabs.com/
- Reddit (есть демоверсия и регистрация для API): https://www.reddit.com/r/StableDiffusion/comments/119l8ra/immersive_diffusion_by_scottie_fox_made_with/
- Объяснение, почему SD с трудом создает темные или светлые изображения (tldr усредняет уровни освещенности): https://www.crosslabs.org/blog/diffusion-with-offset-noise
- Модель: https://civitai.com/models/10391/noise-offset-for-true-darkness-in-sd
- Демонстрация изометрического игрового конвейера с использованием SD, Houdini и multi-controlnet: https://www.reddit.com/r/StableDiffusion/comments/11bkjyo/multicontrolnet_is_a_great_tool_for_creating/
- Создание панорамных изображений с видеопамятью менее 6 ГБ (пока не работает с веб-интерфейсом A1111): https://www.reddit.com/r/StableDiffusion/comments/11a6s7h/you_to_can_create_panorama_images_512x10240_not_a/
- Стабильная диффузия в 3D-сетку: https://www.reddit.com/r/StableDiffusion/comments/11eiqij/partial_3d_model_from_sd_images_still_in_a_very/
- Мошенническая вечеринка на яхте использует ИИ для промо-фотографий (смеется): https://www.scmp.com/news/people-cultural/trending-china/article/3211222/their-fingers-look-fake-deluxe-chinese-yacht- многообещающая-вечеринка-VIP-услуги горничной-утонула-после-причудливой-сексуальности
- Простые уроки:
- Контрольная сеть:
- https://www.reddit.com/r/StableDiffusion/comments/11aks00/onepage_simple_tutorials/
- https://i.redd.it/83p0oq8cx7ka1.png
- (перезагрузка) https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_your_5/
- ЛОРА:
- https://www.reddit.com/r/StableDiffusion/comments/11dqs6w/basic_guide_3_how_to_load_and_use_a_lora/
26 февраля
- Composer — большая (5 миллиардов параметров) управляемая диффузионная модель, в которой эффекты SD и controlnet объединены в модели — wip. АКА, манипулирование и сохранение композиции должно быть лучше.
- Информация: https://damo-vilab.github.io/composer-page/
- Гитхаб: https://github.com/damo-vilab/composer
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11bbpse/composer_a_large_5_billion_parameters/
- SD 3.0 должен поставляться с тонкой настройкой RLHF для лучшего обучения.
- RLHF = люди дают обратную связь о том, что хорошо, а что нет, и машина корректирует свое обучение на основе этого.
- ChatGPT был создан с использованием RLHF, поэтому сравните его с другими текстовыми моделями.
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/11bvnig/sd_30_will_come_with_rlhf_finetuning_for_better
- Довольно крутая демонстрация использования Stable DIffusion и других инструментов для создания аниме-эпизода с правильными визуальными эффектами и прочим (выключите звук, если диалог вам не по вкусу): https://youtu.be/GVT3WUa-48Y
- За кулисами (показывает только обзор рабочего процесса): https://www.youtube.com/watch?v=_9LX9HSQkWo&t=0s
23 февраля (эта и предыдущая новость не были опубликованы, так как я забыл код редактирования)
- Новая модель CLIP с открытым исходным кодом, выпущенная LAION: https://twitter.com/laion_ai/status/1618317487283802113
- TLDR: лучшая классификация изображений -> лучшая генерация
- Блог: https://laion.ai/blog/giant-openclip/
- Обнимающее лицо: https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k
- Модель Deepfloyd IF скоро выйдет (если не задержится)
- Открытый исходный код, может точно генерировать текст
- Пример: https://twitter.com/deepfloydai/status/1610805687361179651
- Их дерево ссылок: https://linktr.ee/deepfloyd.
- Похожие модели текста + изображения:
- Карло: https://huggingface.co/spaces/kakaobrain/karlo
- Муза (от Google): https://muse-model.github.io/
- Бюро регистрации авторских прав США заявляет, что изображения, созданные Midjourney для «Зари рассвета», не подлежат защите авторских прав, поскольку они не соответствуют минимальным требованиям к авторству человека, однако история и расположение изображений в комиксе подлежат защите авторских прав.
- Короче говоря, авторские права на изображения ИИ (по крайней мере, в США) все еще неясны.
- Письмо для переписки: https://fingfx.thomsonreuters.com/gfx/legaldocs/klpygnkyrpg/AI%20COPYRIGHT%20decision.pdf
- Сообщение: https://processmechanics.com/2023/02/22/a-mixed-decision-from-the-us-copyright-office/
- Сообщение на Reddit: https://www.reddit.com/r/StableDiffusion/comments/1196wl6/us_copyright_office_affirms_copyright_of/
- Дополнительная юридическая информация: https://www.reddit.com/r/bigsleep/comments/uevfch/article_ai_authorship_by_a_law_professor_2020/
22 февраля
- Huggingface добавляет галерею моделей диффузии: https://huggingface.co/spaces/huggingface-projects/diffusers-gallery
- OpenAI пытается ограничить языковые модели и проекты с открытым исходным кодом: https://arxiv.org/pdf/2301.04246.
- https://twitter.com/harmlessai/status/1624617240225288194
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/111fbvb/closedai_strikes_again
- A1111 выпустил автоматический установщик для своего веб-интерфейса: https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
- InstructPix2Pix встроен в веб-интерфейс A1111.
- IP2P — это модель, которая может вносить изменения в изображение, используя подсказки на естественном языке.
- https://www.timothybrooks.com/instruct-pix2pix
- Загрузка модели: https://huggingface.co/timbrooks/instruct-pix2pix/tree/main
- Сообщение Reddit с дополнительной информацией: https://www.reddit.com/r/StableDiffusion/comments/10tjzmf/instructpix2pix_is_built_straight_into_the/
- Расширение ControlNet + Houdini (3D-программное обеспечение) wip
- https://www.reddit.com/r/StableDiffusion/comments/115eax6/im_working_on_api_for_the_a1111_controlnet/
- Учебное пособие LORA: https://i.imgur.com/J8xXLLy.png
- https://www.reddit.com/r/StableDiffusion/comments/110up3f/i_made_a_lora_training_guide_its_a_colab_version/
- Руководство по ControlNet: https://i.redd.it/a2ifnjcqj4ja1.png
- 2 недели, но выпущено расширение ControlNet
- Нейронная сеть, которая добавляет больше контроля над моделями стабильной диффузии без слияния или необходимости большого количества img2img
- Вероятно, самое большое улучшение композиционных подсказок (значительно исправляет руки!) и img2img.
- Позволяет извлекать композиции и позы из изображений.
- Вы можете смешать это с программным обеспечением для 3D-поз, таким как Daz3D, https://magicposer.com/, и расширением OpenPose, чтобы быстро создавать персонажей в определенных позах.
- Имеет множество различных препроцессоров и моделей.
- В последнем обновлении вы можете использовать несколько моделей одновременно (включите это в настройках)
- Пример модели: Эскиз — преобразует эскиз в основу изображения, сохраняя базовую композицию.
- Имеет возможность угадать предоставленное изображение и сгенерировать что-то даже без подсказки.
- Простое объяснение всех настроек и моделей: https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- Обрезанные модели (подходят для большинства людей): https://civitai.com/models/9868/controlnet-pre-trained-difference-models
- Оригинальные модели: https://huggingface.co/lllyasviel/ControlNet
- Оригинальный Github: https://github.com/lllyasviel/ControlNet
- Плагин A1111 Github: https://github.com/Mikubill/sd-webui-controlnet
- Выпущен плагин OpenPose
- Извлечение информации о позе из изображений
- Работает с ControlNet
- Гитхаб: https://github.com/fkunn1326/openpose-editor
- Attend-and-Excite: вводит генеративный семантический уход, который вмешивается во время генеративного процесса и направляет модель для генерации всех токенов в командной строке.
- Github: https://github.com/AttendAndExcite/Attend-and-Excite
- Статья: https://arxiv.org/abs/2301.13826.
- Веб-сайт: https://attenandexcite.github.io/Attend-and-Excite/
- Бесплатный плагин для фотошопа с открытым исходным кодом, выпущенный несколько недель назад.
- Github: https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
- Презентация Reddit: https://www.reddit.com/r/StableDiffusion/comments/10n3cqo/major_update_automatic1111_photoshop_stable/
- Большое обновление графического интерфейса НКМД, выпущенное несколько недель назад.
- Сообщение на Reddit: https://www.reddit.com/r/StableDiffusion/comments/10kbyro/nmkd_stable_diffusion_gui_190_is_out_now/
- Гитхаб: https://github.com/n00mkrad/text2image-gui
- Itch.io: https://nmkd.itch.io/t2i-gui/devlog/480628/sd-gui-190-now-with-instructpix2pix
- Старенькое: Google анонсирует Dreamix
- Генерирует видео из подсказки и входного видео.
- Старая версия: RunwayML работает над видео, чтобы предлагать видео: https://arxiv.org/abs/2302.03011
- Очень старо, но актуально из-за видео: многослойные нейронные сети для единообразия видео: https://layered-neural-atlases.github.io/
2/2
- Короткая анимация Netflix использует генерацию изображений для фона
- https://twitter.com/NetflixJP/status/1620357552025538561
- Текст в динамическое 3D-видео с использованием 4D-бумаги: https://make-a-video3d.github.io/
- Можно просматривать с любого места камеры и под любым углом.
- Text to Live: редактирование изображений и видео с использованием текста
- https://text2live.github.io/
- AUTOMATIC1111 выпускает расширение пикселизации для своего веб-интерфейса: https://github.com/AUTOMATIC1111/stable-diffusion-webui-pixelization
- Старое обновление: вы можете просмотреть вставки в веб-интерфейсе AUTOMATIC1111.
- Старое обновление: вышла Waifu Diffusion 1.4
- Диффузоры: https://huggingface.co/hakurei/waifu-diffusion
- Рассол: https://huggingface.co/hakurei/waifu-diffusion-v1-4
- Старое обновление: выпущено расширение, дополняющее поддержку глубины2img.
- https://github.com/AnonymousCervine/Deep-image-io-for-SDWebui
- Старое обновление, которое я забыл включить: VoltaML, аналогично SDA, увеличивает скорость до 10 раз (насколько я слышал)
- https://github.com/VoltaML/voltaML-fast-stable-diffusion
1/28
- Stable Diffusion Accelerated API (SDA), выпущенный SAIL: https://github.com/chavinlo/sda-node
- Использует TensorRT для увеличения скорости генерации на картах NVIDIA.
- Создайте изображение размером 512x512 @ 25 шагов за полсекунды.
- HTTP API
- Еще планировщики от диффузоров
- Взвешенные подсказки (например: «кот: 1,2 И собака И пингвин: 2,2»)
- Больше шагов от ускоренных планировщиков
- Расширенные подсказки (на данный момент не работают)
- Вы можете протестировать его на их сервере, прежде чем загружать: https://discord.gg/RWbpNGyN.
1/23
- Коллективный иск, поданный тремя художниками против Stability AI, Midjourney и Deviant Art for Stable Diffusion
- Те же юристы, что и те, которые подали в суд на Github Copilot.
- Сообщение на Reddit: https://www.reddit.com/r/StableDiffusion/comments/10bj8jm/class_action_lawsuit_filed_against_stable/
- Видео на YouTube, которое я нашел: https://www.youtube.com/watch?v=gv9cdTh8cUo
- Выпущена низкоранговая адаптация для быстрой точной настройки диффузии текста в изображение (Lora)
- Альтернатива Dreambooth, файлы 3 Мб
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/1078nsf/version_010_of_lora_released_alternative_to/
- Гитхаб: https://github.com/cloneofsimo/lora
- Блокнот: https://github.com/cloneofsimo/lora/blob/master/scripts/run_inference.ipynb
- Safetensors сейчас стали нормой, и их можно безопасно загружать и использовать.
- Выпущен большой репозиторий контрольных точек с красивым пользовательским интерфейсом: https://civitai.com/
- Имеет параметры сортировки, предварительный просмотр, комментарии и т. д. Кажется, это нецензурная замена HuggingFace?
- Выпущен Android APK для создания изображений размером 256x256 из NovelAI: https://github.com/EdVince/Stable-Diffusion-NCNN
- Различные обновления ChatGPT: https://openai.com/blog/chatgpt/
- Открытый помощник: ChatGPT с открытым исходным кодом.
- Github: https://github.com/LAION-AI/Open-Assistant
- (Немного устарело?, актуально из-за ChatGPT) Крупнейшая открытая многоязычная языковая модель: BLOOM
- https://huggingface.co/bigscience/bloom
- https://bigscience.huggingface.co/blog/bloom
- Множество обновлений пользовательского интерфейса и функций веб-интерфейса AUTOMATIC1111. Обязательно выполните git pull/update, чтобы получить их.
- Старые сообщения ленты новостей заархивированы: https://rentry.org/oldsdupdates.
с 26.11 по 12.12.
- Goldmine реорганизуется и курируется, обновление выйдет, когда оно будет выглядеть организованным
- Обновите установку AUTOMATIC1111, чтобы получить множество исправлений и функций.
- Заметные обновления, которые я могу найти:
- Добавление --gradio-inpaint-tool и цветовой эскиз: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/5cd5a672f7889dcc018c3873ec557d645ebe35d0
- Safetensors объединены: AUTOMATIC1111/stable-diffusion-webui#4930.
- Чтобы включить SafeTensors для графического процессора, для переменной
SAFETENSORS_FAST_GPU environment
необходимо установить значение 1
- Скрипт пакетной конвертации находится в PR.
- Преобразовать: https://huggingface.co/spaces/safetensors/convert
- Куча обновлений/исправлений пользовательского интерфейса
- Правильная поддержка SD 2.0 (ссылка на основной коммит): https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- Улучшения для различных инструментов (например, апскейлеров)
- (забыл добавить это с момента его создания, но это действительно хорошо) InvokeAI, универсальная альтернатива webui Auto1111, обновлена множеством вещей: https://github.com/invoke-ai/InvokeAI
- InvokeAI требуется всего около 3,5 ГБ видеопамяти для создания изображения 512x768 (и меньше для изображений меньшего размера), и он совместим с Windows/Linux/Mac (M1 и M2).
- Имеет такие функции, как: перерисовка пользовательского интерфейса, управление внедрением, единый (бесконечный) холст и средство просмотра изображений.
- Очень удобный (простой пользовательский интерфейс) и очень простой в установке (1 клик).
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zabmht/invokeai_22_release_the_unified_canvas/
- Unstable Diffusion достигла стартовой цели в 25 000 долларов для дальнейшего обучения SD 2.0
- https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd
- Цели:
- Облако графического процессора сообщества: исследователи и разработчики моделей сообщества могут запрашивать гранты на вычисления и обучать свои собственные модели и наборы данных в нашей системе при условии, что они опубликуют результаты с открытым исходным кодом.
- Дальнейшее обучение с использованием дополнительных шагов и изображений
- Отфильтровываются только дети, чтобы предотвратить неправильное использование
- Выпущена Stable Diffusion v2.1: https://stability.ai/blog/stablediffusion2-1-release7-dec-2022
- https://huggingface.co/stabilityai/stable-diffusion-2-1
- Уменьшена сила фильтров, чтобы можно было генерировать лучших людей.
- LORA — низкоранговая адаптация для быстрого распространения текста в изображение. Пространство тонкой настройки (на основе github снизу): https://huggingface.co/spaces/ysharma/Low-rank-Adaptation
- Dreambooth в два раза быстрее
- Очень маленький размер файла модели (3-4 МБ)
- По мнению автора связанного пространства, предположительно лучше, чем полная тонкая настройка.
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/ziwwzh/lora_dreambooth_web_ui_finetune_stable_diffusion/
- Выпущен Dreambooth с 6 ГБ видеопамяти и менее 16 ГБ ОЗУ (LORA сверху): https://github.com/cloneofsimo/lora
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zfqkh3/we_can_now_do_dreambooth_on_a_gpu_with_only_6gb/
- Как работать в Windows без WSL (используются шаги, аналогичные связанному руководству): https://www.reddit.com/r/StableDiffusion/comments/ydip3s/guide_dreambooth_training_with_shivamshriraos/
- Выпущен StableTuner, инструмент тонкой настройки Stable Diffusion на основе графического интерфейса: https://github.com/devilismyfriend/StableTuner
- Простота установки и использования, дружественный графический интерфейс и универсальный тюнер/тренер «все в одном».
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zd3xut/stabletuner_a_nononsense_powerful_finetuner_with/
- Выпущен openOutpaint: https://github.com/zero01101/openOutpaint
- Открытый исходный код, автономный, автономный, легкий, простой в использовании интерфейс для веб-интерфейса AUTOMATIC1111.
- Руководство: https://github.com/zero01101/openOutpaint/wiki/SBS-Guided-Example.
- Руководство: https://github.com/zero01101/openOutpaint/wiki/Manual.
- Reddit (дополнительные функции перечислены в комментариях): https://www.reddit.com/r/StableDiffusion/comments/zi2nr9/openoutpaint_v0095_an_aggressivity_open_source/
- OpenAI выпускает ChatGPT — языковую модель для диалога (информация по ссылке): https://openai.com/blog/chatgpt/
- Демо (требуется учетная запись): https://chat.openai.com/
- В Automatic1111 добавлена поддержка модели глубины SD.
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zi6x66/automatic1111_added_support_for_new_length_model/
- Инструкции по использованию для пользователя Reddit:
- Загрузите https://huggingface.co/stabilityai/stable-diffusion-2-Deep (модель) и поместите его в models/Stable-diffusion.
- Загрузите https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-midas-inference.yaml (config) и поместите его в ту же папку, что и контрольная точка.
- Переименуйте конфигурацию в 512-глубина-ema.yaml.
- Запустите Stable-Diffusion-Webui, выберите контрольную точку 512-глубины-ema и используйте img2img, как обычно.
- Выпущено расширение deepmap2mask, которое может создавать трехмерные маски карты глубины --> предположительно лучше img2img
- Кажется, это альтернатива настройке веса маски изображения.
- Обучение Dreambooth на основе расширения репозитория Shivam, обновленного для поддержки SD v2.0 (найдите его на вкладке расширений)
- Выпущен скрипт для конвертации моделей диффузоров в ckpt и (наоборот?): https://github.com/lawfordp2017/diffusers/tree/main/scripts
- AUTOMATIC1111 webui теперь на HuggingFace: https://huggingface.co/spaces/camenduru/webui
- Обновлен графический интерфейс сканера Pickle: https://github.com/diStyApps/Stable-Diffusion-Pickle-Scanner-GUI.
- Демонстрация Dream Textures (Stable Diffusion для Blender): https://twitter.com/CarsonKatri/status/1600248599254007810
- Github: https://github.com/carson-katri/dream-textures
- Reddit: https://www.reddit.com/r/StableDiffusion/comments/zf2b9k/absolutely_crazy_addon_in_blender_to_add_textures/
- Выпущено приложение Stable Diffusion для iOS: https://www.reddit.com/r/StableDiffusion/comments/z5ndpw/i_made_a_stable_diffusion_for_anime_app_in_your/
- Оффлайн?
- Магазин приложений: https://apps.apple.com/us/app/waifu-art-ai-local-generator/id6444585505.
- Выпущен простой сервис обучения Dreambooth (но стоит денег): https://openart.ai/photobooth
- Выпущен сервер Stable Diffusion «все в одном» (стоит денег, но кажется дешевым и простым в использовании): https://rundiffusion.com/
- https://www.reddit.com/r/StableDiffusion/comments/zea5rd/thank_you_to_all_the_alpha_testers/
- Выпуск Waifu Diffusion 1.4 отложен до 26 декабря из-за проблемы с базой данных (не SD 2.0).
25.11+26.11.
- Выпущен мой SD Hypertextbook, учебник, который учит новичков установке и использованию Stable Diffusion: https://rentry.org/sdhypertextbook
- SD 2.0 поддерживается в веб-интерфейсе AUTOMATIC1111: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- (Перезагрузить с новой информацией) Запрос на извлечение для поддержки безопасных тензоров, не поддающегося маринованию и быстрого формата для замены pytorch: AUTOMATIC1111/stable-diffusion-webui#4930
- Git проверить этот коммит
- Конвертируйте свои модели локально: прочитайте первый комментарий PR.
- Конвертируйте свои модели в облако: https://colab.research.google.com/drive/1YYzfYZEJTb3dAo9BX6w6eZINIuRsNv6l#scrollTo=ywbCl6ufwzmW