집
biniou는 여러 종류의 GenAI(생성 인공 지능)를 위한 자체 호스팅 webui입니다. 전용 GPU 없이 8GB RAM부터 AI로 멀티미디어 콘텐츠를 생성하고, 내 컴퓨터에서 챗봇을 사용할 수 있습니다. 오프라인으로 작업할 수 있습니다(배포 및 필수 모델 다운로드 후).
GNU/Linux [ OpenSUSE 기반 | RHEL 베이스 | Debian 기반 ] • Windows • macOS Intel(실험용) • Docker
문서 ❓ | 쇼룸 ?️
업데이트
? 2024-11-23 : 이번주 업데이트 >
- Chatbot 모델 prithivMLmods/Llama-Doctor-3.2-3B-Instruct-GGUF에 대한 지원을 추가합니다.
- Flux LoRA 모델 strangerzonehf/Flux-Super-Realism-LoRA, strangerzonehf/Flux-Midjourney-Mix-LoRA, Norod78/Flux_1_Dev_LoRA_Paper-Cutout-Style, prithivMLmods/Knitted-Character-Flux-LoRA에 대한 지원 추가, Shakker-Labs/FLUX.1-dev-LoRA-Children-Simple-Sketch, renderartist/retrocomicflux, prithivMLmods/Seamless-Pattern-Design-Flux-LoRA, alvdansen/haunted_linework_flux, prithivMLmods/Flux.1-Dev-Poster-HQ- LoRA, Grohv/randart2_lora, renderartist/retroadflux, prithivMLmods/Flux.1-Dev-Realtime-Toon-Mix 및 prithivMLmods/Flux-Product-Ad-Backdrop.
? 2024-11-16 : 이번주 업데이트 >
- Chatbot 모델 bartowski/SuperNova-Medius-GGUF 및 bartowski/OpenCoder-8B-Instruct-GGUF에 대한 지원을 추가합니다.
- Flux LoRA 모델에 대한 지원 추가 Shakker-Labs/FLUX.1-dev-LoRA-Text-Poster, dataautogpt3/FLUX-SyntheticAnime, prithivMLmods/Canopus-Pixar-3D-Flux-LoRA, prithivMLmods/Flux-Dev-Real-Anime- 로라, glif-loradex-trainer/shipley_flux_dev_AlicesAdventuresInWonderland_v2, prithivMLmods/Ton618-Only-Stickers-Flux-LoRA, markury/surrealidescent, FounderFeed/gta-style-lora, Keltezaa/movie-poster-ce-sdxl-flux, FounderFeed/MidjourneyMeetFlux 그리고 두아트/플럭스-로라-빈티지-타로.
- SD 3.5 대형 LoRA 모델 nerijs/pixel-art-3.5L에 대한 지원을 추가합니다.
- IP 어댑터 모듈에 Flux에 대한 예비 지원을 추가합니다.
- ControlNet 모듈에 Flux에 대한 예비 지원을 추가합니다(현재는 canny 및 deep만 작동 중입니다).
- 최적화 및 버그 수정.
? 2024-11-09 : 이번주 업데이트 >
- Chatbot 모델 bartowski/SmolLM2-1.7B-Instruct-GGUF, bartowski/cybertron-v4-qw7B-MGS-GGUF 및 bartowski/OpenChat-3.5-0106_32K-PoSE-GGUF에 대한 지원을 추가합니다.
- Chatbot 모델 Llama-3.2-3B-Instruct-GGUF를 bartowski/Llama-3.2-3B-Instruct-uncensored-GGUF로 업데이트했습니다.
- 많은 Flux LoRA 모델에 대한 지원을 추가합니다. 가장 주목할만한 것은 4단계 추론을 허용하는 빠른 LoRA 모델 Lingyuzhou/Hyper_Flux.1_Dev_4_step_Lora입니다. Flux를 사용하고 있다면 시도해 볼 가치가 있습니다.
- img2img 모듈에 대한 Flux 및 Flux LoRA 모델에 대한 지원을 추가합니다.
- Stable Diffusion 및 img2img 모듈을 위한 SD 3.5 Medium LoRA 모델에 대한 지원을 추가합니다.
- Flux LoRA 모델에 카테고리를 추가합니다.
- 여러 하드 드라이브와 함께 사용할 때 docker에 대한 버그 수정 및 img2img 모듈 설정 문제 수정.
? 2024-11-02 : 이번주 업데이트 >
- SD 3.5 모델 ariG23498/sd-3.5-merged 및 adamo1139/stable-diffusion-3.5-medium-ungated에 대한 지원을 Stable Diffusion 및 img2img 모듈에 추가합니다.
- Chatbot 모델 bartowski/granite-3.0-8b-instruct-GGUF에 대한 지원을 추가합니다.
- Flux LoRA 모델 dvyio/flux-lora-seventies-photograph, Bootoshi/retroanime, XLabs-AI/flux-RealismLora 및 prithivMLmods/Ton618-Tarot-Cards-Flux-LoRA에 대한 지원을 추가합니다(이 마지막 모델은 멋진 결과를 제공합니다!).
- SD 3.5 LoRA 모델 alvarobartt/ghibli-characters-sd3.5-lora, reverentelusarca/ancient-style-sd35 및 Wadaka/NewYorkerComic_Style에 대한 지원을 추가합니다.
- img2img 모듈에 SD 3.5 모델에 대한 지원을 추가합니다.
? 2024-10-26 : 이번주 업데이트 >
- 이전에 발표된 대로 Flux 모델 Freepik/flux.1-lite-8B-alpha 및 SD 3.5 모델 adamo1139/stable-diffusion-3.5-large-turbo-ungated는 이제 Stable Diffusion 모듈에서 지원됩니다. 모든 적격 모듈에 대한 지원이 확대됩니다. 또한 이러한 모델에 LoRA에 대한 지원을 추가하세요.
- 모든 Stable Diffusion 기반 모듈에 SDXL 모델 dataautogpt3/Proteus-v0.6에 대한 지원을 추가합니다.
- Chatbot 모델 anthracite-org/magnum-v4-9b-gguf 및 bartowski/Ministral-8B-Instruct-2410-GGUF에 대한 지원을 추가합니다.
- SDXL LoRA 모델 KappaNeuro/moebius-jean-giraud-style에 대한 지원을 추가합니다.
보관된 업데이트 목록
메뉴
• 특징
• 전제조건
• 설치
GNU/리눅스
OpenSUSE 도약 15.5 / OpenSUSE Tumbleweed
록키 9.3 / 알마 9.3 / CentOS 스트림 9 / 페도라 39
데비안 12 / 우분투 22.04.3 / 우분투 24.04 / 리눅스 민트 21.2
윈도우 10 / 윈도우 11
macOS Intel Homebrew 설치
도커파일
• CUDA 지원
• 사용방법
• 알아두면 좋은 점
• 크레딧
• 라이센스
특징
다음을 사용하여 텍스트 생성:
- ✍️ llama-cpp 기반 챗봇 모듈(.gguf 모델 사용)
- ?️ Llava 멀티모달 챗봇 모듈(.gguf 모델 사용)
- ?️ Microsoft GIT 이미지 캡션 모듈
- ? 속삭임 음성-텍스트 모듈
- nllb 번역 모듈(200개 언어)
- 프롬프트 생성기(ChatGPT 출력 유형에는 16GB 이상의 RAM 필요)
다음을 사용하여 이미지 생성 및 수정:
- ?️ 안정적인 확산 모듈
- ?️ Kandinsky 모듈(16GB+ RAM 필요)
- ?️ 잠재 일관성 모델 모듈
- ?️ Midjourney-미니 모듈
- ?️PixArt-알파 모듈
- ?️ 안정적인 확산 Img2img 모듈
- ?️ IP 어댑터 모듈
- ?️ 안정적인 확산 이미지 변형 모듈(16GB+ RAM 필요)
- ?️ Pix2Pix 모듈 지시
- ?️ MagicMix 모듈
- ?️ 안정적인 확산 인페인트 모듈
- ?️ Fantasy Studio Paint by example 모듈(16GB+ RAM 필요)
- ?️ 안정적인 Diffusion Outpaint 모듈(16GB+ RAM 필요)
- ?️ 안정적인 확산 ControlNet 모듈
- ?️ 포토부스 모듈
- ? Insight Face 얼굴 교환 모듈
- ? 실제 ESRGAN 업스케일러 모듈
- ?GFPGAN 얼굴 복원 모듈
다음을 사용하여 오디오 생성:
- ? 뮤직젠 모듈
- ? MusicGen Melody 모듈(16GB+ RAM 필요)
- ? MusicLDM 모듈
- ? Audiogen 모듈(16GB+ RAM 필요)
- ? 하모나이 모듈
- 껍질 모듈
다음을 사용하여 비디오 생성 및 수정:
- ? Modelscope 모듈(16GB+ RAM 필요)
- ? Text2Video-Zero 모듈
- ? AnimateDiff 모듈(16GB+ RAM 필요)
- ? 안정적인 비디오 확산 모듈(16GB+ RAM 필요)
- ?️ Video Instruct-Pix2Pix 모듈(16GB+ RAM 필요)
다음을 사용한 3D 객체 생성:
- ? Shap-E txt2shape 모듈
- ? Shap-E img2shape 모듈(16GB+ RAM 필요)
기타 기능
- 원클릭 설치 프로그램 또는 Windows exe를 통한 Zeroconf 설치.
- 사용자 친화적: biniou를 실행하는 데 필요한 모든 것이 설치 시 또는 처음 사용 시 자동으로 설치됩니다.
- WebUI는 영어, 프랑스어, 중국어(번체)로 제공됩니다.
- webui 내부에서 직접 제어판을 통해 쉽게 관리할 수 있습니다. 업데이트, 다시 시작, 종료, 인증 활성화, 네트워크 액세스 제어 또는 한 번의 클릭으로 인스턴스를 온라인으로 공유할 수 있습니다.
- 간단한 인터페이스를 통해 모델을 쉽게 관리할 수 있습니다.
- 모듈 간 통신: 출력을 다른 모듈에 입력으로 보냅니다.
- 에 의해 구동? 허깅페이스 앤 그라디오
- 크로스 플랫폼: GNU/Linux, Windows 10/11 및 macOS(실험적, 홈브류를 통해)
- 클라우드 인스턴스를 위한 편리한 Dockerfile
- 생성 설정은 각 콘텐츠에 메타데이터로 저장됩니다.
- CUDA 지원(CUDA 지원 참조)
- ROCm에 대한 실험적 지원(여기 참조)
- Stable Diffusion SD-1.5, SD-2.1, SD-Turbo, SDXL, SDXL-Turbo, SDXL-Lightning, Hyper-SD, Stable Diffusion 3, LCM, VegaRT, Segmind, Playground-v2, Koala, Pixart-Alpha 지원 내장된 모델 목록 또는 독립형 .safetensors 파일을 통한 Pixart-Sigma, Kandinsky 및 호환 모델
- LoRA 모델 지원(SD 1.5, SDXL 및 SD3)
- 텍스트 반전 지원
- 간단한 설정을 통해 llama-cpp-python 최적화 CUDA, OpenBLAS, OpenCL BLAS, ROCm 및 Vulkan 지원
- 내장된 모델 목록 또는 독립형 .gguf 파일을 통해 Llama/2/3, Mistral, Mixtral 및 호환 가능한 GGUF 양자화 모델을 지원합니다.
- TheBloke GGUF 양자화 모델에 대한 간편한 복사/붙여넣기 통합.
전제 조건
최소 하드웨어:
- 64비트 CPU(AMD64 아키텍처에만 해당)
- 8GB RAM
- 저장 요구 사항:
- GNU/Linux의 경우: 모델 없이 설치하려면 최소 20GB.
- Windows의 경우: 모델을 제외한 설치의 경우 최소 30GB.
- macOS의 경우: 모델 없이 설치하려면 최소 ??GB.
- 저장 유형: HDD
- 인터넷 접속(설치 및 모델 다운로드에만 필요) : 무제한 대역폭 광섬유 인터넷 접속
권장 하드웨어:
- 대규모 멀티코어 64비트 CPU(AMD64 아키텍처만 해당) 및 CUDA 또는 ROCm과 호환되는 GPU
- 16GB+ RAM
- 저장 요구 사항:
- GNU/Linux의 경우: 모든 기본 모델을 포함하여 설치용으로 약 200GB.
- Windows의 경우: 모든 기본 모델을 포함하여 설치에 약 200GB.
- macOS의 경우: 모든 기본 모델을 포함하여 설치에 약 ??GB가 소요됩니다.
- 스토리지 유형: SSD Nvme
- 인터넷 접속(설치 및 모델 다운로드에만 필요) : 무제한 대역폭 광섬유 인터넷 접속
운영 체제:
- 64비트 OS:
- 데비안 12
- 우분투 22.04.3 / 24.04
- 리눅스 민트 21.2+ / 22
- 록키 9.3
- 앨마 9.3
- CentOS 스트림 9
- 페도라 39
- 오픈수세 도약 15.5
- 오픈수세 텀블위드
- 윈도우 10 22H2
- 윈도우 11 22H2
- 맥OS ???
참고: biniou는 Cuda 또는 ROCm을 지원하지만 실행을 위해 전용 GPU가 필요하지 않습니다. 가상 머신에 설치할 수 있습니다.
설치
GNU/리눅스
OpenSUSE 도약 15.5 / OpenSUSE Tumbleweed
원클릭 설치 프로그램:
- 터미널에서 다음 명령을 복사/붙여넣고 실행합니다 .
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh )
록키 9.3 / 알마 9.3 / CentOS 스트림 9 / 페도라 39
원클릭 설치 프로그램:
- 터미널에서 다음 명령을 복사/붙여넣고 실행합니다 .
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh )
데비안 12 / 우분투 22.04.3 / 우분투 24.04 / 리눅스 민트 21.2+
원클릭 설치 프로그램:
- 터미널에서 다음 명령을 복사/붙여넣고 실행합니다 .
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh )
수동 설치:
- 필수 구성 요소를 루트로 설치합니다 .
apt install git pip python3 python3-venv gcc perl make ffmpeg openssl
- 다음 사용자로 이 저장소를 복제합니다 .
git clone https://github.com/Woolverine94/biniou.git
- 설치 프로그램을 실행합니다 :
- (선택 사항이지만 적극 권장됨) TCMalloc을 루트로 설치하여 메모리 관리를 최적화합니다.
apt install google-perftools
윈도우 10 / 윈도우 11
Windows 설치에는 GNU/Linux 설치보다 전제 조건이 더 많으며 다음 소프트웨어가 필요합니다(자동으로 설치됨).
- 힘내
- Python 3.11(특히 3.11 버전)
- OpenSSL
- Visual Studio 빌드 도구
- 윈도우 10/11 SDK
- Vcredist
- ffmpeg
- ... 그리고 모든 종속성.
이는 운영 체제에 많은 변화를 가져오며, 이로 인해 이미 설치된 소프트웨어에 따라 잠재적으로 시스템에 원치 않는 동작이 발생할 수 있습니다 .
️ 설치 프로세스를 시작하기 전에 시스템과 데이터를 백업해야 합니다. ️
- 다운로드 및 실행 : biniou_netinstall.exe
또는
- 다운로드 및 실행 : install_win.cmd (링크를 마우스 오른쪽 버튼으로 클릭하고 "대상/링크를 다른 이름으로 저장"을 선택하여 다운로드)
모든 설치는 자동화되지만 Windows UAC에서는 "전제 조건" 단계에서 설치된 각 소프트웨어에 대해 확인을 요청합니다. 선택한 설치 프로그램을 관리자로 실행하면 이 문제를 방지할 수 있습니다.
️ 커밋 8d2537b 이후 Windows 사용자는 이제 install_win.cmd
로 설치할 때 biniou 디렉토리에 대한 사용자 정의 경로를 정의할 수 있습니다. ️
다음과 같이 진행하세요:
- install_win.cmd 다운로드 및 편집
-
set DEFAULT_BINIOU_DIR="%userprofile%"
수정하여 set DEFAULT_BINIOU_DIR="E:datassomedir"
(예:) - 절대 경로만 사용하십시오(예:
E:datassomedir
.datassomedir
아님). - 후행 슬래시를 추가하지 마세요(예:
E:datassomedir
및 E:datassomedir
아님). - 경로에 "biniou" 접미사를 추가하지 마세요(예:
E:datassomedirbiniou
). biniou 디렉터리는 git clone 명령에 의해 생성됩니다. - install_win.cmd 저장 및 실행
macOS Intel Homebrew 설치
️ Homebrew 설치는 이론적으로 macOS Intel과 호환되지만 테스트되지 않았습니다. 자신의 책임하에 사용하십시오. 또한 biniou는 현재 Apple Silicon과 호환되지 않습니다. 토론이나 이슈 티켓을 통해 이 절차에 대한 피드백을 주시면 정말 감사하겠습니다. ️
️ 2024년 1월 9일 업데이트: @lepicodon 덕분에 Apple Silicon 사용자를 위한 해결 방법이 있습니다. OrbStack을 사용하여 가상 머신에 biniou를 설치할 수 있습니다. 설명은 이 댓글을 참조하세요. ️
운영 체제에 맞게 Homebrew를 설치하세요 .
필수 홈브류 "병" 설치 :
brew install git python3 gcc gcc@11 perl make ffmpeg openssl
- Python virtualenv를 설치합니다 .
python3 -m pip install virtualenv
- 다음 사용자로 이 저장소를 복제합니다 .
git clone https://github.com/Woolverine94/biniou.git
- 설치 프로그램을 실행합니다 :
도커파일
이 지침에서는 이미 구성되어 작동 중인 Docker 환경이 있다고 가정합니다.
- 도커 이미지를 만듭니다 .
docker build -t biniou https://github.com/Woolverine94/biniou.git
또는 CUDA 지원의 경우:
docker build -t biniou https://raw.githubusercontent.com/Woolverine94/biniou/main/CUDA/Dockerfile
- 컨테이너를 실행합니다 .
docker run -it --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
또는 CUDA 지원의 경우:
docker run -it --gpus all --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
- URL로 webui에 액세스하십시오 .
어두운 테마의 경우 https://127.0.0.1:7860 또는 https://127.0.0.1:7860/?__theme=dark(권장)
... 또는 127.0.0.1을 컨테이너의 IP로 교체하세요.
참고: 저장 공간을 절약하기 위해 이전 컨테이너 시작 명령은 모든 biniou 컨테이너에 대한 공통 공유 볼륨을 정의하고 OOM 충돌 시 컨테이너가 자동으로 다시 시작되도록 합니다. 이러한 동작을 원하지 않으면 --restart
및 -v
인수를 제거하십시오.
CUDA 지원
biniou는 광범위한 하드웨어와의 호환성을 보장하기 위해 기본적으로 CPU 전용이지만 Nvidia CUDA(기능적인 CUDA 12.1 환경이 있는 경우) 또는 AMD ROCm(기능적인 ROCm 5.6 환경이 있는 경우)을 통해 CUDA 지원을 쉽게 활성화할 수 있습니다. WebUI 제어 모듈에서 활성화할 최적화 유형(Linux의 경우 CPU, CUDA 또는 ROCm)을 선택합니다.
현재 Chatbot, Llava 및 faceswap 모듈을 제외한 모든 모듈은 CUDA 최적화의 이점을 누릴 수 있습니다.
사용 방법
- biniou 디렉터리에서 실행하여 시작합니다 .
cd /home/ $USER /biniou
./webui.sh
biniou 디렉터리(C:Users%username%biniou)에서 webui.cmd를 두 번 클릭합니다. UAC의 요청이 있을 경우 네트워크 유형에 따라 방화벽을 구성하여 webui에 대한 액세스를 승인하세요.
참고: Windows 11에서는 처음 시작이 매우 느릴 수 있습니다(다른 OS에 비해).
URL로 webui에 액세스하십시오 .
어두운 테마의 경우 https://127.0.0.1:7860 또는 https://127.0.0.1:7860/?__theme=dark(권장)
URL의 127.0.0.1을 biniou 호스트 IP 주소로 바꾸면 동일한 LAN/Wifi 네트워크에 있는 모든 장치(스마트폰 포함)에서 biniou에 액세스할 수도 있습니다.
터미널에서 키보드 단축키 CTRL+C를 사용하여 종료합니다 .
WebUI 제어 업데이트 옵션을 사용하여 이 애플리케이션(biniou + python 가상 환경)을 업데이트하세요 .
알아두면 좋은 점
충돌의 가장 빈번한 원인은 호스트의 메모리가 부족하기 때문입니다. 증상은 특정 오류 메시지 없이 biniou 프로그램이 닫히고 터미널로 돌아가거나 닫히는 것입니다. 8GB RAM으로 biniou를 사용할 수 있지만 OOM(메모리 부족) 오류를 방지하려면 최소 16GB를 권장합니다.
biniou는 다양한 AI 모델을 사용하므로 많은 공간이 필요합니다. biniou의 모든 모듈을 사용하려면 각 모듈의 기본 모델에만 약 200GB의 디스크 공간이 필요합니다. 모델은 각 모듈을 처음 실행할 때 또는 모듈에서 새 모델을 선택하고 콘텐츠를 생성할 때 다운로드됩니다. 모델은 biniou 설치의 /models 디렉터리에 저장됩니다. 공간을 절약하기 위해 사용하지 않는 모델을 삭제할 수 있습니다.
... 결과적으로, 모델을 다운로드하려면 빠른 인터넷 접속이 필요합니다.
생성된 모든 콘텐츠의 백업은 biniou 폴더의 /outputs 디렉터리에서 사용할 수 있습니다.
biniou는 기본적으로 모든 작업에 CPU에만 의존합니다. 특정 CPU 전용 버전의 PyTorch를 사용합니다. 그 결과 다양한 하드웨어와의 호환성이 향상되지만 성능은 저하됩니다. 하드웨어에 따라 속도가 느려질 수 있습니다. Nvidia CUDA 지원 및 AMD ROCm 실험적 지원(GNU/Linux에만 해당)은 여기를 참조하세요.
기본 설정은 성능/품질 비율이 가장 좋은 저사양 컴퓨터에서 콘텐츠를 생성할 수 있도록 선택되어 있습니다. 최소 설정 이상의 구성이 있는 경우 다른 모델을 사용하고, 미디어 크기나 기간을 늘리고, 추론 매개변수 또는 기타 설정(예: 이미지에 대한 토큰 병합)을 수정하여 더 나은 품질의 콘텐츠를 얻을 수 있습니다.
biniou는 GNU GPL3에 따라 라이센스가 부여되었지만 biniou에 사용된 각 모델에는 자체 라이센스가 있습니다. 해당 모델로 무엇을 할 수 있고 무엇을 할 수 없는지 알아보려면 각 모델 라이센스를 참조하세요. 각 모델에 대해 관련 모듈의 "정보" 섹션에서 해당 모델의 허깅페이스 페이지에 대한 링크를 찾을 수 있습니다.
너무 많은 기대는 하지 마십시오. biniou는 개발 초기 단계에 있으며 여기에 사용되는 대부분의 오픈 소스 소프트웨어는 개발 중입니다(일부는 아직 실험적입니다).
모든 biniou 모듈은 2개의 아코디언 요소를 제공합니다. 정보 및 설정 :
- 정보는 모듈을 설명하고 사용 방법에 대한 지침과 팁을 제공하는 빠른 도움말 기능입니다.
- 설정은 생성 매개변수를 구성할 수 있는 모듈별 패널 설정입니다.
크레딧
이 애플리케이션은 다음 소프트웨어와 기술을 사용합니다.
- ? Huggingface: Diffusers 및 Transformers 라이브러리와 거의 모든 생성 모델.
- 그라디오 : webUI
- llama-cpp-python : llama-cpp에 대한 Python 바인딩
- 라바
- 바크라바
- 마이크로소프트 GIT: Image2text
- 속삭임 : speech2text
- nllb 번역 : 언어 번역
- 안정적인 확산 : txt2img, img2img, 이미지 변형, inpaint, ControlNet, Text2Video-Zero, img2vid
- 칸딘스키 : txt2img
- 잠재 일관성 모델: txt2img
- PixArt-알파 : PixArt-알파
- IP 어댑터 : IP 어댑터 img2img
- pix2pix 지시 : pix2pix
- 매직믹스 : 매직믹스
- 판타지 스튜디오 페인트 예시 : Paintbyex
- Controlnet 보조 모델: ControlNet 모듈용 미리보기 모델
- IP-Adapter FaceID : 포토부스 모듈용 어댑터 모델
- Photobooth 모듈용 Photomaker 어댑터 모델
- Insight Face : 페이스 스와핑
- 실제 ESRGAN : 업스케일러
- GFPGAN : 얼굴 복원
- Audiocraft : musicgen, musicgen 멜로디, audiogen
- MusicLDM : 뮤직LDM
- 하모나이 : 하모나이
- 짖음 : text2speech
- 모델스코프 텍스트-비디오 합성: txt2vid
- 애니메이트LCM : txt2vid
- 오픈 AI Shap-E : txt2shape, img2shape
- compel : 다양한
StableDiffusionPipeline
기반 모듈에 대한 신속한 개선 - tomesd : 다양한
StableDiffusionPipeline
기반 모듈에 대한 토큰 병합 - 파이썬
- 파이토치
- 힘내
- ffmpeg
... 그리고 모든 종속성
특허
GNU 일반 공중 라이선스 v3.0
GitHub @Woolverine94 ·