Dokumen: https://diffsynth-studio.readthedocs.io/zh-cn/latest/index.html
DiffSynth Studio adalah mesin Difusi. Kami telah merestrukturisasi arsitektur termasuk Text Encoder, UNet, VAE, antara lain, menjaga kompatibilitas dengan model dari komunitas sumber terbuka sekaligus meningkatkan kinerja komputasi. Kami menyediakan banyak fitur menarik. Nikmati keajaiban model Difusi!
Hingga saat ini, DiffSynth Studio telah mendukung model berikut:
25 Oktober 2024 Kami menyediakan dukungan FLUX ControlNet yang ekstensif. Proyek ini mendukung banyak model ControlNet berbeda yang dapat digabungkan secara bebas, meskipun strukturnya berbeda. Selain itu, model ControlNet kompatibel dengan penyempurnaan resolusi tinggi dan teknik kontrol partisi, memungkinkan pembuatan gambar terkontrol yang sangat kuat. Lihat ./examples/ControlNet/
.
8 Oktober 2024. Kami merilis LoRA yang diperluas berdasarkan CogVideoX-5B dan ExVideo. Anda dapat mengunduh model ini dari ModelScope atau HuggingFace.
22 Agustus 2024. CogVideoX-5B didukung dalam proyek ini. Lihat di sini. Beberapa fitur menarik yang kami sediakan untuk model text-to-video ini antara lain
22 Agustus 2024. Kami telah menerapkan pelukis menarik yang mendukung semua model teks-ke-gambar. Sekarang Anda dapat membuat gambar menakjubkan menggunakan pelukis, dengan bantuan AI!
21 Agustus 2024. FLUX didukung di DiffSynth-Studio.
21 Juni 2024. ??? Kami mengusulkan ExVideo, teknik pasca-penyetelan yang bertujuan untuk meningkatkan kemampuan model pembuatan video. Kami telah memperluas Difusi Video Stabil untuk mencapai pembuatan video panjang hingga 128 frame.
examples/ExVideo
.13 Juni 2024. DiffSynth Studio ditransfer ke ModelScope. Para pengembang telah beralih dari "saya" ke "kita". Tentu saja saya akan tetap ikut serta dalam pengembangan dan pemeliharaan.
29 Jan 2024. Kami mengusulkan Diffutoon, solusi fantastis untuk bayangan toon.
8 Desember 2023. Kami memutuskan untuk mengembangkan Proyek baru, yang bertujuan untuk mengeluarkan potensi model difusi, khususnya dalam sintesis video. Pengembangan proyek ini dimulai.
15 November 2023. Kami mengusulkan FastBlend, algoritme penghilangan tampilan video yang canggih.
1 Okt 2023. Kami merilis versi awal proyek ini yaitu FastSDXL. Percobaan untuk membangun mesin difusi.
29 Agustus 2023. Kami mengusulkan DiffSynth, kerangka sintesis video.
Instal dari kode sumber (disarankan):
git clone https://github.com/modelscope/DiffSynth-Studio.git
cd DiffSynth-Studio
pip install -e .
Atau instal dari pypi:
pip install diffsynth
Contoh Python ada dalam examples
. Kami memberikan gambarannya di sini.
Unduh model yang telah ditentukan sebelumnya. ID model dapat ditemukan di file konfigurasi.
from diffsynth import download_models
download_models ([ "FLUX.1-dev" , "Kolors" ])
Unduh model Anda sendiri.
from diffsynth . models . downloader import download_from_huggingface , download_from_modelscope
# From Modelscope (recommended)
download_from_modelscope ( "Kwai-Kolors/Kolors" , "vae/diffusion_pytorch_model.fp16.bin" , "models/kolors/Kolors/vae" )
# From Huggingface
download_from_huggingface ( "Kwai-Kolors/Kolors" , "vae/diffusion_pytorch_model.fp16.safetensors" , "models/kolors/Kolors/vae" )
CogVideoX-5B dirilis oleh ZhiPu. Kami menyediakan saluran yang ditingkatkan, mendukung teks-ke-video, pengeditan video, peningkatan skala mandiri, dan interpolasi video. examples/video_synthesis
Video di sebelah kiri dibuat menggunakan pipeline text-to-video asli, sedangkan video di sebelah kanan adalah hasil setelah pengeditan dan interpolasi bingkai.
Kami melatih model sintesis video yang diperluas, yang dapat menghasilkan 128 frame. examples/ExVideo
Render video realistis dalam gaya rata dan aktifkan fitur pengeditan video. examples/Diffutoon
Stylisasi video tanpa model video. examples/diffsynth
Hasilkan gambar resolusi tinggi, dengan mendobrak batasan model difusi! examples/image_synthesis
.
Penyempurnaan LoRA didukung dalam examples/train
.
ALIRAN | Difusi Stabil 3 |
---|---|
Warna | Hunyuan-DiT |
---|---|
Difusi Stabil | Difusi Stabil XL |
---|---|
Buat gambar menakjubkan menggunakan pelukis, dengan bantuan AI!
Video ini tidak ditampilkan secara real-time.
Sebelum meluncurkan WebUI, silakan unduh model ke folder ./models
. Lihat di sini.
Gradio
pip install gradio
python apps/gradio/DiffSynth_Studio.py
Streamlit
pip install streamlit streamlit-drawable-canvas
python -m streamlit run apps/streamlit/DiffSynth_Studio.py