Erste Unterstützung für Tora (https://github.com/alibaba/Tora)
Konvertiertes Modell (im Autodownload-Knoten enthalten):
https://huggingface.co/Kijai/CogVideoX-5b-Tora/tree/main
Diese Woche gab es einige größere Updates, die sich höchstwahrscheinlich auf einige alte Arbeitsabläufe auswirken werden. Insbesondere der Sampler-Knoten muss wahrscheinlich aktualisiert (neu erstellt) werden, wenn ein Fehler auftritt!
Neue Funktionen:
Erste Unterstützung für die offizielle I2V-Version von CogVideoX: https://huggingface.co/THUDM/CogVideoX-5b-I2V
Benötigt außerdem Diffusoren 0,30,3
Erste Unterstützung für CogVideoX-Fun hinzugefügt: https://github.com/aigc-apps/CogVideoX-Fun
Beachten Sie, dass dieses zwar image2vid unterstützt, dies jedoch noch NICHT das offizielle I2V-Modell ist, obwohl es ebenfalls sehr bald veröffentlicht werden dürfte.
Durch die zusätzliche experimentelle Unterstützung für onediff reduzierte sich die Sampling-Zeit für mich um etwa 40 % und erreichte 4,23 s/it auf 4090 mit 49 Bildern. Dies erfordert die Installation von Linux, Torch 2.4.0, Onediff und Nextort:
pip install --pre onediff onediffx
pip install nexfort
Beim ersten Durchlauf dauert die Kompilierung etwa 5 Minuten.
Das 5b-Modell wird jetzt auch für einfaches text2vid unterstützt: https://huggingface.co/THUDM/CogVideoX-5b
Es wird auch automatisch auf ComfyUI/models/CogVideo/CogVideoX-5b
heruntergeladen. Ein Textencoder ist nicht erforderlich, da wir ComfyUI T5 verwenden.
Erfordert Diffusoren 0.30.1 (dies ist in der Datei „requirements.txt“ angegeben)
Verwendet dasselbe T5-Modell wie SD3 und Flux, fp8 funktioniert auch einwandfrei. Der Speicherbedarf hängt hauptsächlich von der Videolänge ab. Die VAE-Dekodierung scheint die einzige große Sache zu sein, die viel VRAM beansprucht, wenn alles ausgelagert wird, und erreicht in diesem Stadium momentan einen Spitzenwert von etwa 13–14 GB. Das Sampling selbst benötigt vielleicht nur 5-6 GB.
In img2img gehackt, um den vid2vid-Workflow auszuprobieren, funktioniert interessanterweise mit einigen Eingaben, sehr experimentell.
Außerdem wurde zeitliche Kachelung hinzugefügt, um endlose Videos zu generieren:
https://github.com/kijai/ComfyUI-CogVideoXWrapper
Original-Repo: https://github.com/THUDM/CogVideo
CogVideoX-Fun: https://github.com/aigc-apps/CogVideoX-Fun
Kontrollnetz: https://github.com/TheDenk/cogvideox-controlnet