? ToonCrafter は、事前にトレーニングされた画像からビデオへの拡散事前分布を利用して、2 つの漫画画像を補間できます。詳細については、プロジェクトページと論文をご覧ください。
入力開始フレーム | 入力終了フレーム | 生成されたビデオ |
入力開始フレーム | 入力終了フレーム | 入力スケッチガイダンス | 生成されたビデオ |
入力開始フレーム | 入力終了フレーム | 生成されたビデオ |
入力スケッチ | 入力基準 | カラー化の結果 |
モデル | 解決 | GPUメモリ。 & 推論時間 (A100、ddim 50steps) | チェックポイント |
---|---|---|---|
トゥーンクラフター_512 | 320x512 | TBD ( perframe_ae=True ) | ハグフェイス |
現在、ToonCrafter は、解像度 512x320 で最大 16 フレームのビデオの生成をサポートできます。 DDIM ステップの数を減らすことで、推論時間を短縮できます。
前提条件: 3.11>=python>=3.8
、 CUDA>=11.3
、 ffmpeg
およびgit
。
Python と Git:
venv が動作できるように、powershell への無制限のスクリプト アクセスを許可します。
Set-ExecutionPolicy Unrestricted
と入力し、「A」と答えます git clone https://github.com/sdbds/ToonCrafter-for-windows
Powershell を使用してインストールし、 install.ps1
またはinstall-cn.ps1
(中国語の場合) を実行します。
事前トレーニングされた ToonCrafter_512 をダウンロードし、 model.ckpt
をcheckpoints/tooncrafter_512_interp_v1/model.ckpt
に配置します。
sh scripts/run.sh
run_gui.ps1
で Powershell を実行する
落ち着け。私たちのフレームワークは生成漫画補間の時代を切り開きますが、これまでの生成ビデオには多様性があるため、成功率は保証されません。
このプロジェクトは、AI 主導のビデオ生成の領域にプラスの影響を与えることを目指しています。ユーザーにはこのツールを使用してビデオを作成する自由が与えられていますが、現地の法律を遵守し、責任を持って使用することが求められます。開発者は、ユーザーによる潜在的な誤用に対して一切の責任を負いません。