Diperbarui v0.2 : memperbaiki node yang salah yang terhubung ke node florence2
Pembaruan 11-08-2024 : Setelah sedikit mengutak-atik, saya menemukan cara untuk mereproduksi gambar berkualitas tinggi dengan controlnet seperti yang ditunjukkan di halaman Github/HF, saya juga menemukan bahwa 2 metode pengambilan sampel dapat digabungkan dan diatur ulang menjadi pendekatan yang lebih sederhana dan efisien, saya akan segera memperbarui v0.3 untuk menyertakan semua perubahan ini.
Saya telah membuat alur kerja FluxDev All-in-One di ComfyUI yang menggabungkan berbagai teknik untuk menghasilkan gambar dengan model FluxDev, termasuk img-to-img dan text-to-img. Alur kerja ini dapat menggunakan LoRA, ControlNets, mengaktifkan perintah negatif dengan Ksampler, ambang batas dinamis, inpainting, dan banyak lagi. Harap dicatat bahwa ini bukan cara yang "benar" dalam menggunakan teknik ini, melainkan interpretasi pribadi saya berdasarkan informasi yang tersedia.
Banyak Memanfaatkan Node USE Everywhere
Alur kerja ini sangat bergantung pada node USE Everywhere untuk menjadikannya sebersih dan seefisien mungkin untuk kebutuhan generasi saya sehari-hari. Saya membagikan alur kerja ini kepada komunitas untuk mengumpulkan wawasan dan saran untuk perbaikan. Jangan ragu untuk bereksperimen sendiri.
ComfyUI/models/clip
): flux_text_encodersae.sft
di ComfyUI/models/vae
): ae.safetensorsComfyUI/models/controlnet
, buka folder jika diperlukan)ComfyUI/models/loras
, buka folder jika diperlukan)Pengaturan VRAM Rendah:
Luncurkan ComfyUI dengan argumen "--lowvram" (tambahkan ke file .bat Anda) untuk memindahkan encoder teks ke CPU
Pada saat pembuatan alur kerja ini, ada dua ControlNet yang tersedia dan beberapa LoRA, termasuk:
Saya hanya menguji LoRA Canny dan Realisme dari XLabs-AI, dan berikut beberapa kesimpulan utamanya:
git checkout xlabs_flux_controlnet
Alur kerja Ksampler dengan ambang batas dinamis didasarkan pada postingan blog resmi ComfyUI. Dan saya mengutip:
Catatan untuk kedua model Anda dapat menggunakan SamplerCustomAdvanced
dengan BasicGuider
, atau jika Anda menggunakan KSampler
, setel CFG
ke 1
. Anda dapat menggunakan FluxGuidance
baru pada model Dev untuk mengontrol nilai seperti CFG yang disuling. (Disarankan menyetelnya ke 2 untuk realisme atau kontrol gaya yang lebih baik) Model ini dilatih untuk bekerja tanpa CFG nyata. Namun bukan berarti Anda tidak akan pernah bisa menggunakan CFG - faktanya, komunitas dengan cepat memanfaatkan ComfyUI sebagai platform eksperimen untuk menguji berbagai macam trik guna mendapatkan hasil maksimal dari model-model baru. (Seperti menggunakan node khusus Dynamic Thresholding, atau menggunakan node bawaan FluxGuidance
baru untuk mengimbangi, dan mengaktifkan CFG dan perintah negatif. Ada juga ModelSamplingFlux
bawaan untuk mengontrol pergeseran sigma Flux, meskipun manfaatnya lebih terbatas.)
Ingatlah bahwa ini adalah interpretasi saya sendiri dan jangan ragu untuk melakukan perubahan dan eksperimen apa pun.
Demo 0 shot non cherry pick dengan metode pengambilan sampel ini:
Anda dapat menemukan reponya di sini.
Kalkulator Resolusi Piksel adalah node khusus yang saya kembangkan dengan bantuan LLama3.1 kemarin (Ya, saya tidak memiliki keterampilan pemrograman, mempelajarinya dari awal). Ini hanyalah node yang sangat sederhana yang menghasilkan resolusi piksel "ramah laten" terdekat dari megapiksel dan rasio aspek pilihan Anda. Saya mengambil inspirasi dari node ImageScaleToTotalPixels dari alur kerja demo Flux asli, karena semua orang sepertinya berbicara tentang resolusi piksel, bukan jumlah piksel lebar dan tinggi seperti di SDXL. Ada juga node untuk mengubah input sampel laten menjadi jumlah piksel lebar dan tinggi.
Alur kerja peningkatan juga disertakan. Ia menggunakan simpul Iteratif Kelas Atas (Gambar) dari paket Dampak dan difusi ubin untuk membuat perbaikan resolusi tinggi seperti peningkatan skala dan perincian grup simpul dengan model kelas atas pilihan Anda. Anda juga dapat melakukan denoise, CFG, dan penjadwalan langkah dengan PK hook.
Bandingkan gambar demo di sini.
Karena belum ada model inpainting yang dilatih untuk Flux, hanya bentuk inpainting paling sederhana yang dapat dicapai di sini. Anda juga dapat mencoba menggabungkan ControlNets, namun perhatikan resolusi berbasis persegi dan skala panduan (4) .
Hanya beberapa node sederhana untuk menjalankan ollama dan Florence2 untuk menggunakan vision LLm untuk teks detail dan untuk mendapatkan wawasan cepat, saya menggunakan LLaVa 13B dan Florence2 besar dalam demo, Anda memerlukan node Ollama , Ollama ComfyUI dan Florence2 ComfyUI, lihat tautannya untuk penggunaan rinci dan panduan instalasi.
Panduan lebih rinci akan ditambahkan jika orang merasa kesulitan menggunakannya....
Flux adalah model yang sangat fleksibel, dan karena ini adalah versi pertama, ini sangat mengesankan. Dalam waktu dua minggu setelah dirilis, ControlNet dan LoRA sudah tersedia, yang menunjukkan betapa komunitas sangat menyukai model ini. Saya sekarang menantikan beberapa model lukisan. Dan yang terpenting, Matteo, tolong rilis adaptor iPad untuk Flux.... tolong, satu puzzle yang hilang dan saya selesaikan....
Selamat Menghasilkan!
PS Saya menyertakan prompt yang saya gunakan dengan LLama3.1 untuk membantu saya melakukan pemeriksaan ejaan dan pemeriksaan tata bahasa untuk repo ini tanpa alasan:
Bertindak sebagai penulis profesional dengan keahlian menulis yang kuat dan pemahaman mendalam tentang menulis secara umum. Membantu pengguna dalam menulis ulang, memformat ulang, dan melakukan pemeriksaan tata bahasa dan ejaan berdasarkan permintaan. Tugas Anda harus mencakup:
Selain itu, harap:
Apakah Anda memahami persyaratan ini?