SD 업데이트(3)
->여기서만 뉴스<- ->여기에서 다운로드 및 링크를 찾으세요: https://rentry.org/sdgoldmine<- ->여기에서 오래된 자료 https://rentry.org/oldsdupdates<-
모든 임대 링크는 여기에서 '.org'로 끝나며 '.co'로 변경할 수 있습니다. 또한 Google 링크를 열 때 시크릿/비공개 브라우징을 사용하세요. 그렇지 않으면 익명성을 잃게 됩니다. / 누군가가 귀하에게 독설을 할 수도 있습니다.
연락하다
이 목록에 없는 정보/파일(예: 삽입)이 있거나, 질문이 있거나, 도움을 받고 싶다면 자세한 내용을 알려주세요.
소셜: 여행:questianon!!YbTGdICxQOw Discord: Malt#6065 Reddit: u/questianon Github: https://github.com/questianon Twitter: https://twitter.com/questianon
!!! note 업데이트 지침. SD가 중단되면 다시 작동하기 시작할 때까지 커밋에서 뒤로 이동합니다. 지침: * Windows의 경우: 1. 명령 프롬프트 또는 git bash를 통해 webui 디렉터리로 이동합니다. Git bash: 마우스 오른쪽 버튼 클릭 > 여기에서 git bash b. 명령 프롬프트: 폴더와 아래쪽 화살표 사이의 "url" 지점을 클릭하고 "명령 프롬프트"를 입력합니다. 기음. 이 작업을 수행하는 방법을 모르는 경우 명령 프롬프트를 열고 "cd [stable-diffusion-webui 경로]"를 입력하세요("url"에서 폴더를 마우스 오른쪽 버튼으로 클릭하거나 Shift + stable-diffusion-webui 폴더) 2. git pull
3. pip install -r requirements_versions.txt
* Linux의 경우: 1. webui 디렉터리로 이동합니다. 2. source ./venv/bin/activate
a. 그래도 작동하지 않으면 python -m venv venv
미리 실행하십시오. 3. git pull
4. pip install -r requirements.txt
If AUTOMATIC1111's Github goes down, you can try checking his alt repo: https://gitgud.io/AUTOMATIC1111/stable-diffusion-webui
참고: 한 달 안에 업데이트하지 않으면 시간이 너무 많이 걸리기 때문에 SD를 기록하고 유지하는 일에서 물러나기로 결정했을 것입니다. 그렇다면 최종 업데이트에서는 일부 내용을 정리하고 대규모 최종 업데이트를 수행할 것입니다. 뉴스를 계속 확인하려면 다음을 사용할 수 있습니다.
Reddit(상위순으로 정렬하면 모든 것이 필터링되므로 권장): https://www.reddit.com/r/StableDiffusion/ 4chan(상위 댓글을 보고 큰 내용이 추가되었는지 확인하세요. 계속하고 싶다면 좋습니다. 무엇보다도): https://boards.4channel.org/g/catalog#s=sdg SDCompendium (이 사이트가 얼마나 좋은지 잘 모르겠습니다. 간단히 살펴보니 꽤 괜찮고 유지 관리되는 것 같습니다. 매주(?) 월간(?) 뉴스와 기타 다양한 정보): https://www.sdcompendium.com/
이 저장소와 SD의 일반적인 개발에 대한 지원에 감사드립니다. 기여해 주신 모든 분들께 진심으로 감사드리며 SD를 새로운 차원으로 끌어올리시기를 바랍니다.
4/11
- AUTO1111이 자신의 저장소 업데이트를 영원히 중단하고 업데이트를 원할 경우 https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/에서 새로운 업데이트를 찾아볼 수 있습니다. 안정 확산 webui
- 댓글로 추천하는 것: https://techgaun.github.io/active-forks/index.html#https://github.com/AUTOMATIC1111/stable-diffusion-webui
- AI 연구 민주화를 위한 LAION 청원서: https://www.openpetition.eu/petition/online/securing-our-digital-future-a-cern-for-open-source-large-scale-ai-research-and-its -안전
- Reddit 게시물 1: https://www.reddit.com/r/singularity/comments/126j2ok/laion_launches_a_petition_to_democratize_ai/
- 레딧 2: https://www.reddit.com/r/StableDiffusion/comments/126rb5p/laion_launches_a_petition_to_democratize_ai/
- Stable Diffusion v2-1-unCLIP 모델 출시: 기본적으로 DALL-E 2와 유사한 프롬프트로 입력 이미지를 사용합니다.
- Github: https://github.com/Stability-AI/stablediffusion/blob/main/doc/UNCLIP.MD
- 블로그: https://stability.ai/blog/stable-diffusion-reimagine
- 모델: https://huggingface.co/stabilityai/stable-diffusion-2-1-unclip
- 데모: https://clipdrop.co/stable-diffusion-reimagine
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/1218dxk/stable_diffusion_v21unclip_model_released/
- 칸딘스키 2.1 모델: https://github.com/ai-forever/Kandinsky-2
- Stable Diffusion을 기반으로 하지 않는 오픈 소스 이미지 모델입니다. 이미지 믹싱(?) 및 병합이 가능합니다.
- 무료이고 빠른(?) Artgen 사이트, Kandinsky가 있습니다: https://dreamlike.art/create
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/12c9yos/ive_add_kandinsky_21_to_my_website_its_free_and/
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/12bf5k2/kandinsky_21_beats_stable_diffusion_and_allows/
- 또 다른 레딧 쇼케이스: https://www.reddit.com/r/StableDiffusion/comments/12bexho/kandinsky_21_a_new_open_source_texttoimage_model/
- ControlNet 얼굴 모델 출시: https://huggingface.co/CrucibleAI/ControlNetMediaPipeFace
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/1281iva/new_controlnet_face_model/
- 제한 사항을 제거하기 위한 ChatGPT "탈옥"(GPT 4에서 잘 작동): https://github.com/0xk1h0/ChatGPT_DAN
- NVIDIA의 StyleGAN-T - 안정적인 확산보다 빠른 텍스트-이미지 합성: https://sites.google.com/view/stylegan-t/
- 2분 논문: https://www.youtube.com/watch?v=qnHbGXmGJCM&t=84s
- 텍스트를 비디오로 미세 조정: https://github.com/ExponentialML/Text-To-Video-Finetuning
- RunwayML 텍스트를 비디오 쇼케이스로: https://www.reddit.com/r/StableDiffusion/comments/12gwa4m/movie_scene_generated_with_text2video_by_runwayml/
- 수많은 정보 + 쇼케이스가 포함된 웹사이트: https://research.runwayml.com/gen2
- 1.2B 매개변수 비디오 모델: https://huggingface.co/VideoCrafter/t2v-version-1-1
- 데모: https://huggingface.co/spaces/VideoCrafter/VideoCrafter
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/12coe0l/new_12b_parameter_text_to_video_model_is_out/
- Stable Diffusion 비디오 쇼케이스에 대한 멋진 현실(댓글의 작업 흐름):
- 개: https://www.reddit.com/r/StableDiffusion/comments/12bdr3p/augmenting_reality_with_stable_diffusion_just/
- 춤추는 소녀: https://www.reddit.com/r/StableDiffusion/comments/12i9qr7/i_transform_real_person_dancing_to_animation/
- 많은 tiktokkers가 수행하고 있는 루프백 작업(수행 방법은 댓글을 확인하세요): https://www.reddit.com/r/StableDiffusion/comments/129zh69/slide_diffusion_loopback_wave_script/
- 깊이를 유지하는 다른 이미지로 회전하기 위해 블렌더에 SD 이미지를 추가합니다: https://www.reddit.com/r/StableDiffusion/comments/12aurpp/i_found_a_way_to_create_ Different_conuous/
- 사용된 스크립트 작성자: https://github.com/thygate/stable-diffusion-webui-lengthmap-script
- 유사한 동영상: https://www.reddit.com/r/StableDiffusion/comments/127kagv/stepping_into_places_that_do_not_exist_stable/
- 토큰 병합(더 빠른 생성)
- https://github.com/dbolya/tomesd#installation
- https://git.mmaker.moe/mmaker/sd-webui-tome
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/1276th7/token_merging_for_fast_stable_diffusion/
- SD 지역 프롬프터 스크립트: https://github.com/hako-mikan/sd-webui-regional-prompter
- 이미지 믹서 - 개념, 스타일 및 구성(예: Midjourney) 결합: https://huggingface.co/lambdalabs/image-mixer
- CKPT에서 safetensors 변환기 GUI로: https://github.com/diStyApps/Safe-and-Stable-Ckpt2Safetensors-Conversion-Tool-GUI
3/23
- 오픈소스 텍스트-비디오 17억 매개변수 확산 모델 출시
- 허깅페이스: https://huggingface.co/damo-vilab/modelscope-damo-text-to-video-synesis/tree/main
- HuggingFace 데모: https://huggingface.co/spaces/damo-vilab/modelscope-text-to-video-synesis
- 모델: https://modelscope.cn/models/damo/text-to-video-synesis/summary
- 모델 파일: https://modelscope.cn/models/damo/text-to-video-synesis/files
- 트위터: https://twitter.com/_akhaliq/status/1637321077553606657
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/11vbyei/first_open_source_text_to_video_17_billion/
- NeRF에 적용된 InstructPix2Pix: https://instruct-nerf2nerf.github.io/
- Github: https://github.com/nerfstudio-project/nerfstudio
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/11z7rrg/instructnerf2nerf/
- Nvidia eDiffi와 SD Paint-with-words의 콤보인 Multidiffusion: https://multidiffusion.github.io/
- Github: https://github.com/omerbt/MultiDiffusion
- 데모: https://huggingface.co/spaces/weizmannscience/multidiffusion-region-based
- webui에 확장 기능이 있습니다
- 확산 모델에서 SD 개념 삭제: https://erasing.baulab.info/
- Midjourney v5 출시
- 대규모 GAN 모델 출시: https://mingukkang.github.io/GigaGAN/
- 논문: https://arxiv.org/abs/2303.05511
- 로컬 사용을 위한 30B 매개변수가 포함된 로컬 ChatGPT 출시: https://github.com/antimatter15/alpaca.cpp
- SD 용어에 대한 멋진 용어집: https://sdtools.org/
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/11nk957/sdtools_v15/
3/2
- 블렌더 안정성 출시: https://platform.stability.ai/docs/integrations/blender
- Blender 내에서 Stable Diffusion 및 기타 곧 출시될 모델을 사용하기 위한 공식 지원, 무료, 번거로움 없는 방법
- 인터넷 연결만으로 AI 후처리 효과를 수행하려면 인터넷 연결(종속성 또는 GPU 없음)만 필요합니다.
- 디스코드 게시물: https://discord.com/channels/1002292111942635562/1002292398703001601/1080897334201815150
- Github 다운로드: https://github.com/Stability-AI/stability-blender-addon-public/releases/
- ControlNet 핸드 라이브러리 확장 출시: https://github.com/jexom/sd-webui-length-lib
- 2주 안에 SD 릴리스에 작동하는 깜박임 방지 기능
- 웹사이트: https://chenyanglei.github.io/deflicker/
- Github: https://github.com/ChenyangLEI/All-In-One-Deflicker
- 레이 트레이싱(저해상도 입력에서 고해상도 출력으로)과 같은 것을 에뮬레이션하기 위한 확산 후 프로세스 데모: https://www.reddit.com/r/StableDiffusion/comments/11gikby/what_i_think_is_the_future_of_realism_in_games/
3/1
- 안내 시작 시간이 지연되어 대상 이미지 수정(예: 손)을 제공하도록 ControlNet이 업데이트되었습니다.
- Github: Mikubill/sd-webui-controlnet#393
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/11d7it7/targeted_hand_fix_is_finallly_possible_at/
- A1111의 webui용 비디오 루프백 확장 기능 출시: https://github.com/fishslot/video_loopback_for_webui
- 루프백 및 시간적 블러링을 통해 영상의 안정성을 향상시킵니다.
- 캐릭터 애니메이션용이며 일반적으로 Lora 또는 DreamBooth와 함께 사용해야 합니다.
- 포즈 + 손 + 이미지 데모를 위한 다중 컨트롤넷(해부학 관련 많은 문제 수정): https://www.reddit.com/r/StableDiffusion/comments/11c4m4q/one_of_the_best_uses_for_multicontrolnet_from/
- 블렌더 장비: https://toyxyz.gumroad.com/l/ciojz
- 또 다른 데모: https://www.reddit.com/r/StableDiffusion/comments/11e15mw/highly_improved_hand_and_feet_ Generation_with/
- 3D 인식 조건부 이미지 합성 출시: https://github.com/dunbar12138/pix2pix3D
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/11cudxv/pix2pix3d_3daware_conditional_image_synesis/
- Stable Diffusion, GPT3 및 기존 게임 제작 소프트웨어로 개발된 아이소메트릭 RPG 게임 "Tales of Syn": https://www.reddit.com/r/StableDiffusion/comments/11fb7oq/isometric_rpg_game_tales_of_syn_개발_with/
- 블로그: https://talesofsyn.com/posts/creating-isometric-rpg-game-Backgrounds
- ~3-4 it/s(개발자가 주장한 대로) 및 컨트롤넷을 갖춘 Apple 제품의 오프라인 SD: https://apps.apple.com/gb/app/draw-things-ai- Generation/id6444050820
- ChatGPT는 1,000개 토큰당 $0.002의 가격으로 API를 출시합니다: https://openai.com/blog/introducing-chatgpt-and-whisper-apis
- 계산할 교육 클립: https://arxiv.org/abs/2302.12066
- SD에서 VR로: https://skybox.blockadelabs.com/
- Reddit(API 데모 및 가입 있음): https://www.reddit.com/r/StableDiffusion/comments/119l8ra/immersive_diffusion_by_scottie_fox_made_with/
- SD가 어둡거나 밝은 이미지를 만드는 데 어려움을 겪는 이유에 대한 설명(tldr은 빛 수준의 평균을 구함): https://www.crosslabs.org/blog/diffusion-with-offset-noise
- 모델: https://civitai.com/models/10391/noise-offset-for-true-darkness-in-sd
- SD, Houdini 및 다중 제어망을 사용한 아이소메트릭 게임 파이프라인 데모: https://www.reddit.com/r/StableDiffusion/comments/11bkjyo/multicontrolnet_is_a_great_tool_for_creating/
- 6GB 미만의 VRAM으로 파노라마 이미지 만들기(아직 A1111의 webui에서는 작동하지 않음): https://www.reddit.com/r/StableDiffusion/comments/11a6s7h/you_to_can_create_panorama_images_512x10240_not_a/
- 3D 메쉬로의 안정적인 확산: https://www.reddit.com/r/StableDiffusion/comments/11eiqij/partial_3d_model_from_sd_images_still_in_a_very/
- 사기 요트 파티는 홍보 사진에 AI를 사용합니다(웃음): https://www.scmp.com/news/people-culture/trending-china/article/3211222/their-fingers-look-fake-deluxe-chinese-yacht- 파티 약속-vip-메이드-서비스-침몰 후-이상한-섹시
- 간단한 튜토리얼:
- 컨트롤넷:
- https://www.reddit.com/r/StableDiffusion/comments/11aks00/onepage_simple_tutorials/
- https://i.redd.it/83p0oq8cx7ka1.png
- (재업로드) https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- 로라:
- https://www.reddit.com/r/StableDiffusion/comments/11dqs6w/basic_guide_3_how_to_load_and_use_a_lora/
2/26
- Composer는 SD와 컨트롤넷의 효과가 모델에 결합된 대규모(50억 매개변수) 제어 가능한 확산 모델입니다. 일명 구성을 조작하고 유지하는 것이 더 좋습니다.
- 정보: https://damo-vilab.github.io/composer-page/
- Github: https://github.com/damo-vilab/composer
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/11bbpse/composer_a_large_5_billion_parameters/
- SD 3.0에는 더 나은 훈련을 위해 RLHF 미세 조정이 포함되어야 합니다.
- RLHF = 인간은 좋은 것과 그렇지 않은 것에 대한 피드백을 제공하고 기계는 이를 기반으로 학습을 조정합니다.
- ChatGPT는 RLHF를 사용하여 구축되었으므로 다른 텍스트 모델과 얼마나 좋은지 비교해 보세요.
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/11bvnig/sd_30_will_come_with_rlhf_finetuning_for_better
- Stable DIffusion 및 기타 도구를 사용하여 적절한 VFX 등이 포함된 애니메이션 에피소드를 만드는 매우 멋진 쇼케이스입니다(대화 내용이 취향에 맞지 않으면 오디오를 음소거하세요): https://youtu.be/GVT3WUa-48Y
- 비하인드 스토리(워크플로 개요만 표시): https://www.youtube.com/watch?v=_9LX9HSQkWo&t=0s
2/23 (이번 글과 이전 글은 편집코드를 잊어버려서 올리지 못했습니다)
- LAION이 출시한 새로운 오픈소스 CLIP 모델: https://twitter.com/laion_ai/status/1618317487283802113
- TLDR: 더 나은 이미지 분류 --> 더 나은 생성
- 블로그: https://laion.ai/blog/giant-openclip/
- 허깅페이스: https://huggingface.co/laion/CLIP-ViT-bigG-14-laion2B-39B-b160k
- Deepfloyd IF 모델 곧 출시 예정 (지연되지 않는다면)
- 오픈 소스로 텍스트를 정확하게 생성할 수 있습니다.
- 예: https://twitter.com/deepfloydai/status/1610805687361179651
- 해당 링크트리: https://linktr.ee/deepfloyd
- 유사한 텍스트 + 이미지 모델:
- 카를로: https://huggingface.co/spaces/kakaobrain/karlo
- Muse(Google 제공): https://muse-model.github.io/
- 미국 저작권 사무소에서는 "새벽의 자리야"를 위해 Midjourney가 제작한 이미지가 인간 저작자 최소 요구 사항을 충족하지 않았기 때문에 저작권 보호를 받을 수 없다고 명시하고 있습니다. 그러나 만화 속 이미지의 스토리와 배열은 저작권 보호를 받을 수 있습니다.
- 간단히 말해서, AI 이미지의 저작권(적어도 미국에서는)은 여전히 불투명합니다.
- 서한: https://fingfx.thomsonreuters.com/gfx/legaldocs/klpygnkyrpg/AI%20COPYRIGHT%20decision.pdf
- 게시물: https://processmechanics.com/2023/02/22/a-mixed-decision-from-the-us-copyright-office/
- Reddit 게시물: https://www.reddit.com/r/StableDiffusion/comments/1196wl6/us_copyright_office_affirms_copyright_of/
- 추가 법률 정보: https://www.reddit.com/r/bigsleep/comments/uevfch/article_ai_authorship_by_a_law_professor_2020/
2/22
- Huggingface는 확산 모델 갤러리를 추가합니다: https://huggingface.co/spaces/huggingface-projects/diffusers-gallery
- OpenAI는 언어 모델과 오픈 소스 프로젝트를 제한하려고 합니다: https://arxiv.org/pdf/2301.04246.
- https://twitter.com/harmlessai/status/1624617240225288194
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/111fbvb/closedai_strikes_again
- A1111은 webui용 자동 설치 프로그램을 출시했습니다: https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
- A1111의 webui에 내장된 InstructPix2Pix
- IP2P는 자연어 프롬프트를 사용하여 이미지를 변경할 수 있는 모델입니다.
- https://www.timothybrooks.com/instruct-pix2pix
- 모델 다운로드: https://huggingface.co/timbrooks/instruct-pix2pix/tree/main
- 자세한 정보가 포함된 Reddit 게시물: https://www.reddit.com/r/StableDiffusion/comments/10tjzmf/instructpix2pix_is_built_straight_into_the/
- ControlNet + Houdini(3D 소프트웨어) 확장 wip
- https://www.reddit.com/r/StableDiffusion/comments/115eax6/im_working_on_api_for_the_a1111_controlnet/
- LORA 교육 가이드: https://i.imgur.com/J8xXLLy.png
- https://www.reddit.com/r/StableDiffusion/comments/110up3f/i_made_a_lora_training_guide_its_a_colab_version/
- ControlNet 가이드: https://i.redd.it/a2ifnjcqj4ja1.png
- 2주가 지났지만 ControlNet 확장이 출시되었습니다.
- img2img를 병합하거나 많이 요구하지 않고 Stable Diffusion 모델에 대한 더 많은 제어를 추가하는 신경망
- 아마도 구성 프롬프트(손을 크게 수정!) 및 img2img에 대한 가장 큰 개선일 것입니다.
- 이미지에서 구도와 포즈를 추출할 수 있습니다.
- 이를 Daz3D, https://magicposer.com/ 및 OpenPose 확장과 같은 3D 포즈 소프트웨어와 혼합하여 특정 포즈를 가진 캐릭터를 빠르게 만들 수 있습니다.
- 다양한 전처리기와 모델이 있음
- 최근 업데이트에서는 여러 모델을 동시에 사용할 수 있습니다(설정에서 활성화).
- 모델 예: 스케치 - 기본 구성을 유지하면서 스케치를 이미지의 기본으로 변환합니다.
- 제공된 이미지를 추측하고 프롬프트 없이도 뭔가를 생성할 수 있는 옵션이 있습니다.
- 모든 설정 및 모델에 대한 간단한 설명: https://www.reddit.com/r/StableDiffusion/comments/119o71b/a1111_controlnet_extension_explained_like_youre_5/
- 정리된 모델(대부분의 사람들에게 적합): https://civitai.com/models/9868/controlnet-pre-trained-difference-models
- 원본 모델: https://huggingface.co/lllyasviel/ControlNet
- 원본 Github: https://github.com/lllyasviel/ControlNet
- A1111 플러그인 Github: https://github.com/Mikubill/sd-webui-controlnet
- OpenPose 플러그인 출시
- 이미지에서 포즈 정보 추출
- ControlNet과 함께 작동
- Github: https://github.com/fkunn1326/openpose-editor
- Attend-and-Excite: 생성 프로세스 중에 개입하여 모델이 프롬프트에서 모든 토큰을 생성하도록 안내하는 Generative Semantic Nursing을 도입합니다.
- Github: https://github.com/AttendAndExcite/Attend-and-Excite
- 논문: https://arxiv.org/abs/2301.13826
- 웹사이트: https://attendandexcite.github.io/Attend-and-Excite/
- 몇 주 전에 출시된 무료 오픈 소스 Photoshop 플러그인
- Github: https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin
- Reddit 쇼케이스: https://www.reddit.com/r/StableDiffusion/comments/10n3cqo/major_update_automatic1111_photoshop_stable/
- 몇 주 전 NKMD GUI에 대한 대규모 업데이트
- Reddit 게시물: https://www.reddit.com/r/StableDiffusion/comments/10kbyro/nmkd_stable_diffusion_gui_190_is_out_now/
- Github: https://github.com/n00mkrad/text2image-gui
- Itch.io: https://nmkd.itch.io/t2i-gui/devlog/480628/sd-gui-190-now-with-instructpix2pix
- Oldish: Google, Dreamix 발표
- 프롬프트 및 입력 비디오에서 비디오를 생성합니다.
- 이전: RunwayML이 비디오를 표시하기 위해 비디오 작업 중: https://arxiv.org/abs/2302.03011
- 아주 오래되었지만 비디오 때문에 관련성이 있음: 비디오의 일관성을 위한 계층화된 신경망: https://layered-neural-atlases.github.io/
2/2
- Netflix 단편 애니메이션은 배경에 이미지 생성을 사용합니다.
- https://twitter.com/NetflixJP/status/1620357552025538561
- 4D 종이를 사용한 텍스트를 3D 동적 비디오로 공개: https://make-a-video3d.github.io/
- 어떤 카메라 위치와 각도에서도 볼 수 있습니다.
- Text to Live: 텍스트를 활용한 이미지 및 비디오 편집
- https://text2live.github.io/
- AUTOMATIC1111은 자신의 webui에 대한 픽셀화 확장 기능을 출시합니다: https://github.com/AUTOMATIC1111/stable-diffusion-webui-pixelization
- 오래된 업데이트: AUTOMATIC1111의 webui에서 임베드를 미리 볼 수 있습니다.
- 오래된 업데이트: Waifu Diffusion 1.4 출시
- 디퓨저: https://huggingface.co/hakurei/waifu-diffusion
- 피클: https://huggingface.co/hakurei/waifu-diffusion-v1-4
- 이전 업데이트: 심도2img 지원을 완료하는 확장 기능 출시
- https://github.com/AnonymousCervine/깊이-image-io-for-SDWebui
- 포함하는 것을 잊은 이전 업데이트: SDA와 유사한 VoltaML은 속도를 최대 10배까지 향상시킵니다(내가 들은 바에 따르면).
- https://github.com/VoltaML/voltaML-fast-stable-diffusion
1/28
- SAIL에서 출시한 SDA(Stable Diffusion Accelerated API): https://github.com/chavinlo/sda-node
- TensorRT를 사용하여 NVIDIA 카드의 생성 속도를 높입니다.
- 0.5초 안에 512x512 @ 25단계 이미지 생성
- HTTP API
- 디퓨저의 더 많은 스케줄러
- 가중치 프롬프트(예: "고양이:1.2 AND 개 AND 펭귄:2.2")
- 가속화된 스케줄러로 더 많은 단계 계산
- 확장 프롬프트(현재 끊어짐)
- 다운로드하기 전에 서버에서 테스트할 수 있습니다: https://discord.gg/RWbpNGyN
1/23
- Stability AI, Midjourney, Deviant Art for Stable Diffusion을 상대로 아티스트 3명이 집단 소송을 제기했습니다.
- Github Copilot을 고소한 변호사와 동일한 변호사
- Reddit 게시물: https://www.reddit.com/r/StableDiffusion/comments/10bj8jm/class_action_lawsuit_filed_against_stable/
- 내가 찾은 유튜브 영상: https://www.youtube.com/watch?v=gv9cdTh8cUo
- 빠른 텍스트-이미지 확산 미세 조정을 위한 낮은 순위 적응(Lora) 출시
- Dreambooth의 대안, 3MB 파일
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/1078nsf/version_010_of_lora_released_alternative_to/
- Github: https://github.com/cloneofsimo/lora
- 노트북: https://github.com/cloneofsimo/lora/blob/master/scripts/run_inference.ipynb
- Safetensors는 이제 표준으로 보이며 다운로드하여 사용하기에 안전해야 합니다.
- 멋진 UI를 갖춘 대규모 체크포인트 저장소 출시: https://civitai.com/
- 정렬 옵션, 미리보기, 댓글 등이 있습니다. HuggingFace를 무수정으로 대체하는 것 같나요?
- NovelAI에서 256x256 이미지를 생성하기 위한 Android APK 출시: https://github.com/EdVince/Stable-Diffusion-NCNN
- ChatGPT에 대한 다양한 업데이트: https://openai.com/blog/chatgpt/
- 오픈 어시스턴트: 기본적으로 오픈 소스 ChatGPT
- Github: https://github.com/LAION-AI/Open-Assistant
- (다소 오래된?, ChatGPT와 관련이 있음) 최대 개방형 다국어 언어 모델: BLOOM
- https://huggingface.co/bigscience/bloom
- https://bigscience.huggingface.co/blog/bloom
- AUTOMATIC1111의 webui에 대한 많은 UI 및 기능 업데이트, 이를 얻으려면 git pull/update를 수행하십시오.
- 오래된 뉴스피드 게시물이 보관되었습니다: https://rentry.org/oldsdupdates
11/26 ~ 12/12
- 골드마인은 개편 및 큐레이팅 중이며, 정리되면 업데이트가 나올 예정입니다.
- 많은 수정 사항과 기능을 위해 AUTOMATIC1111 설치를 업데이트하세요.
- 내가 찾을 수 있는 주목할만한 업데이트는 다음과 같습니다.
- --gradio-inpaint-tool 및 color-sketch 추가: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/5cd5a672f7889dcc018c3873ec557d645ebe35d0
- 세이프텐서 병합: AUTOMATIC1111/stable-diffusion-webui#4930
- GPU용 SafeTensors를 활성화하려면
SAFETENSORS_FAST_GPU environment
변수를 1
로 설정해야 합니다. - 일괄 변환 스크립트가 PR에 있습니다.
- 변환: https://huggingface.co/spaces/safetensors/convert
- 다양한 UI 업데이트/수정
- 적절한 SD 2.0 지원(기본 커밋 연결): https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- 다양한 도구 개선(예: 업스케일러)
- (생성된 이후로 넣는 것을 잊었지만 정말 좋습니다.) Auto1111의 webui에 대한 올인원 대안인 InvokeAI가 많은 기능으로 업데이트되었습니다: https://github.com/invoke-ai/InvokeAI
- InvokeAI는 512x768 이미지를 생성하는 데 ~3.5GB의 VRAM만 필요하며(더 작은 이미지의 경우 더 적음) Windows/Linux/Mac(M1 및 M2)과 호환됩니다.
- 다음과 같은 기능이 있습니다: UI 아웃페인팅, 임베딩 관리, 통합(무한) 캔버스, 이미지 뷰어
- 매우 사용자 친화적이며(간단한 UI) 설치가 매우 쉽습니다(1-클릭).
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/zabmht/invokeai_22_release_the_unified_canvas/
- Unstable Diffusion은 SD 2.0의 추가 교육을 위한 $25000 킥스타터 목표를 달성했습니다.
- https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd
- 목표:
- 커뮤니티 GPU 클라우드: 연구원 및 커뮤니티 모델 제작자는 결과를 오픈 소스로 공개할 경우 컴퓨팅 보조금을 요청하고 우리 시스템에서 자체 모델 및 데이터 세트를 교육할 수 있습니다.
- 더 많은 단계와 이미지를 사용한 추가 교육
- 오용 방지를 위해 어린이만 필터링함
- Stable Diffusion v2.1 출시: https://stability.ai/blog/stablediffusion2-1-release7-dec-2022
- https://huggingface.co/stabilityai/stable-diffusion-2-1
- 더 나은 사람을 생성할 수 있도록 필터의 강도를 줄였습니다.
- LORA - 빠른 텍스트-이미지 확산을 위한 낮은 순위 적응 미세 조정 공간(아래의 github 기반): https://huggingface.co/spaces/ysharma/Low-rank-Adaptation
- 두 배의 속도로 드림부스
- 초소형 모델 파일 크기(3-4MB)
- 연결된 공간의 작성자에 따르면 전체 미세 조정보다 더 나은 것으로 추정됨
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/ziwwzh/lora_dreambooth_web_ui_finetune_stable_diffusion/
- 6GB VRAM 및 16GB RAM 미만의 Dreambooth 출시(위의 LORA): https://github.com/cloneofsimo/lora
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/zfqkh3/we_can_now_do_dreambooth_on_a_gpu_with_only_6gb/
- WSL 없이 기본적으로 Windows에서 실행하는 방법(링크된 가이드와 유사한 단계 사용): https://www.reddit.com/r/StableDiffusion/comments/ydip3s/guide_dreambooth_training_with_shivamshriraos/
- GUI 기반 Stable Diffusion 미세 조정기인 StableTuner 출시: https://github.com/devilismyfriend/StableTuner
- 설치 및 사용이 쉽고 친숙한 GUI, 올인원 미세 조정기/트레이너
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/zd3xut/stabletuner_a_nononsense_powerful_finetuner_with/
- openOutpaint 출시: https://github.com/zero01101/openOutpaint
- AUTOMATIC1111의 webui를 위한 오픈 소스, 자체 호스팅, 오프라인, 가볍고 사용하기 쉬운 아웃페인팅
- 가이드: https://github.com/zero01101/openOutpaint/wiki/SBS-Guided-Example
- 매뉴얼: https://github.com/zero01101/openOutpaint/wiki/Manual
- Reddit(댓글에 더 많은 기능이 나열되어 있음): https://www.reddit.com/r/StableDiffusion/comments/zi2nr9/openoutpaint_v0095_an_aggressively_open_source/
- OpenAI, 대화용 언어 모델인 ChatGPT 출시(링크 정보): https://openai.com/blog/chatgpt/
- 데모(계정 필요): https://chat.openai.com/
- Automatic1111은 SD 깊이 모델에 대한 지원을 추가합니다.
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/zi6x66/automatic1111_add_support_for_new_length_model/
- Reddit 사용자의 사용 방법에 대한 지침:
- https://huggingface.co/stabilityai/stable-diffusion-2-깊이(모델)을 다운로드하여 models/Stable-diffusion에 배치하세요.
- https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-midas-inference.yaml(config)을 다운로드하고 체크포인트와 동일한 폴더에 배치합니다.
- 구성 이름을 512-length-ema.yaml로 바꿉니다.
- Stable-Diffusion-Webui를 시작하고, z 512-뎁스-ema 체크포인트를 선택하고 평소처럼 img2img를 사용합니다.
- 3D 깊이 맵 마스크를 생성할 수 있는 깊이 맵2마스크 확장 출시 --> 아마도 더 나은 img2img
- 이미지 마스크 무게 조절에 대한 대안인 것 같습니다.
- SD v2.0을 지원하도록 업데이트된 Shivam의 repo 확장을 기반으로 한 Dreambooth 교육(확장 탭에서 확인)
- 디퓨저 모델을 ckpt로 변환하고 (그 반대로?) 릴리스된 스크립트: https://github.com/lawfordp2017/diffusers/tree/main/scripts
- 이제 HuggingFace의 AUTOMATIC1111 webui: https://huggingface.co/spaces/camenduru/webui
- 피클 스캐너 GUI 업데이트: https://github.com/diStyApps/Stable-Diffusion-Pickle-Scanner-GUI
- 드림 텍스처(블렌더용 안정적인 확산) 데모: https://twitter.com/CarsonKatri/status/1600248599254007810
- Github: https://github.com/carson-katri/dream-textures
- 레딧: https://www.reddit.com/r/StableDiffusion/comments/zf2b9k/absolutely_crazy_addon_in_blender_to_add_textures/
- Stable Diffusion IOS 앱 출시: https://www.reddit.com/r/StableDiffusion/comments/z5ndpw/i_made_a_stable_diffusion_for_anime_app_in_your/
- 오프라인인가요?
- 앱 스토어: https://apps.apple.com/us/app/waifu-art-ai-local-generator/id6444585505
- 간편 드림부스 교육(단, 비용 발생) 서비스 출시: https://openart.ai/photobooth
- 올인원 Stable Diffusion 서버(비용이 많이 들지만 저렴하고 사용하기 쉬운 것 같음) 출시: https://rundiffusion.com/
- https://www.reddit.com/r/StableDiffusion/comments/zea5rd/thank_you_to_all_the_alpha_testers/
- Waifu Diffusion 1.4는 데이터베이스 문제로 인해 12월 26일로 연기되었습니다(SD 2.0 아님).
11/25+11/26
- 초보자에게 Stable Diffusion 설치 및 사용 방법을 가르치는 튜토리얼인 My SD Hypertextbook이 출시되었습니다: https://rentry.org/sdhypertextbook
- SD 2.0은 AUTOMATIC1111의 webui를 지원합니다: https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/ce6911158b5b2f9cf79b405a1f368f875492044d
- (새 정보로 다시 업로드) pytorch를 대체하기 위한 피클이 불가능하고 빠른 형식인 safetensor 지원을 위한 풀 요청: AUTOMATIC1111/stable-diffusion-webui#4930
- Git에서 이 커밋을 체크아웃하세요.
- 모델을 로컬로 변환하세요: PR의 첫 번째 댓글을 읽어보세요.
- 클라우드에서 모델을 변환하세요: https://colab.research.google.com/drive/1YYzfYZEJTb3dAo9BX6w6eZINIuRsNv6l#scrollTo=ywbCl6ufwzmW