このリポジトリをYour ComfyUI root directoryComfyUIcustom_nodes
にクローンし、依存する Python パッケージをインストールします。
cd Your_ComfyUI_root_directoryComfyUIcustom_nodes git clone https://github.com/Bin-sam/DynamicPose-ComfyUI.git pip install -r 要件.txt
事前トレーニングされたモデルをダウンロードします。
./pretrained_weights/
|-- denoising_unet.pth
|-- motion_module.pth
|-- pose_guider.pth
|-- reference_unet.pth
|-- rtmpose
| |-- rtmw-x_simcc-cocktail14_pt-ucoco_270e-384x288-f840f204_20231122.pth
| |-- rtmw-x_8xb320-270e_cocktail14-384x288.py
| |-- rtmdet_m_640-8xb32_coco-person.py
| |-- rtmdet_m_8xb32-100e_coco-obj365-person-235e8209.pth
| |-- rtmpose-x_8xb256-700e_coco-384x288.py
| |-- rtmpose-x_simcc-body7_pt-body7_700e-384x288-71d7b7e9_20230629.pth
|-- DWPose
| |-- dw-ll_ucoco_384.onnx
| |-- yolox_l.onnx
クリップ イメージ エンコーダ (例: sd-image-variations-diffusers) をダウンロードし、 Your_ComfyUI_root_directoryComfyUImodelsclip_vision
の下に置きます。
vae (例: sd-vae-ft-mse) をダウンロードし、 Your_ComfyUI_root_directoryComfyUImodelsvae
の下に置きます。
Stable-diffusion-v1-5 (たとえば、stable-diffusion-v1-5) をダウンロードし、 Your_ComfyUI_root_directoryComfyUImodelsdiffusers
の下に置きます。
安定した拡散-v1-5_unet
Moore-AnimateAnyone 事前トレーニング済みモデル
DWpose モデルのダウンロード リンクは、「DWPose for ControlNet」というタイトルの下にあります。
上記のモデルは、次のように pretrained_weights フォルダーの下に配置する必要があります。
パイプラインの例の使用
このワークフローは Pose_to_video です