このリンクで ID_Animator を見つけることができます。
1. ParlerTTS ノード:ComfyUI_ParlerTTS
2. Llama3_8B ノード:ComfyUI_Llama3_8B
3. HiDiffusion ノード: ComfyUI_HiDiffusion_Pro
4. ID_Animator ノード: ComfyUI_ID_Animator
5. StoryDiffusion ノード: ComfyUI_StoryDiffusion
6. ポップノード: ComfyUI_Pops
7.stable-audio-open-1.0 ノード: ComfyUI_StableAudio_Open
8. GLM4 ノード: ComfyUI_ChatGLM_API
9. CustomNet ノード: ComfyUI_CustomNet
10. Pipeline_Tool ノード:ComfyUI_Pipeline_Tool
11.Pic2Storyノード:ComfyUI_Pic2Story
12. PBR_Maker ノード:ComfyUI_PBR_Maker
2024-06-15
1. アニメーションddiffのフレームレートが32に制限される問題を修正。思い出させてくれた ShmuelRonen に感謝します
2. face_lora と lora_adapter の条件付きコントロールを追加します。モデルのアドレスは以下のモデルの説明にあります。
3. ディフューザー バージョン 0.28.0 以降のサポートを追加
---以前の更新情報
1. 他のビデオ合成ノードとの接続を容易にするために出力を単一フレーム画像に変更し、元の GIF アニメーションを保存するオプションをキャンセルします。
2. 新しいモデル読み込みメニューを追加しました。これは論理的により明確です。「.. ComfyUI_ID_Animator/models/animatediff_models」ディレクトリにさらに多くのアクション モデルを配置できます。
git https : // github . com / smthemex / ComfyUI_ID_Animator . git
モジュールが見つからない場合は、「モジュールが見つからない場合は、この要件を確認してください。txt」ファイル内の不足しているモジュールの個別のインストールを参照してください。
モジュールが不足している場合は、「モジュールが不足している場合は、この要件を確認してください。txt」を開いて、不足しているモジュールを個別にインストールしてください。
3.1 ディレクトリ.. ComfyUI_ID_Animator/models
3.2 ディレクトリ.. ComfyUI_ID_Animator/models/animatediff_models
3.3 dir.. コンフィ/モデル/ディフューザー
3.4 dir.. 快適/モデル/チェックポイント
3.5 ディレクトリ.. ComfyUI_ID_Animator/models/image_encoder
3.6 ディレクトリ.. ComfyUI_ID_Animator/モデル/アダプター
3.7 その他のモデル
最初の実行では、Insightface モデルが「X/user/username/.insightface/models/buffalo_l」ディレクトリにダウンロードされます。
「ID_Animator」の作者がオープンソースライセンス契約にマークを付けていなかったため、オープンソースライセンス契約を一時的にApache-2.0ライセンスに設定しました
「ID_Animator」はオープンソースライセンス契約を示していないため、オープンソースライセンス契約を一時的にApache-2.0ライセンスに設定しました。
何玄華: [email protected]
クアンデ・リュー: [email protected]
Shengju Qian: [email protected]
@article{guo2023animatediff,
title={AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning},
author={Guo, Yuwei and Yang, Ceyuan and Rao, Anyi and Liang, Zhengyang and Wang, Yaohui and Qiao, Yu and Agrawala, Maneesh and Lin, Dahua and Dai, Bo},
journal={International Conference on Learning Representations},
year={2024}
}
@article{guo2023sparsectrl,
title={SparseCtrl: Adding Sparse Controls to Text-to-Video Diffusion Models},
author={Guo, Yuwei and Yang, Ceyuan and Rao, Anyi and Agrawala, Maneesh and Lin, Dahua and Dai, Bo},
journal={arXiv preprint arXiv:2311.16933},
year={2023}
}