ComfyUI Txt2Video with SVD
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
アップデート:SVD ver 1.1 をこちらからダウンロードできます: https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt-1-1/tree/main
「このモデルは、同じサイズのコンテキストフレームを入力として1024x576解像度で25フレームの動画を生成するよう学習され、SVD Image-to-Video [25フレーム] からファインチューニングされています。」
Stable Video Diffusion の Img2Video を用いて、この ComfyUI ワークフローにより、希望のプロンプト、ネガティブプロンプト、チェックポイント(およびVAE)で画像を生成し、その画像から自動的に動画を作成できます。
v1.3_sd3: Stable Diffusion 3 と SVD XT 1.1 を使用した txt2video
Stable Diffusion 3 モデルのダウンロード場所と .safetensors ファイルの配置場所について:/model/497255/stable-diffusion-3-sd3
v1.3_cascade: Stable Cascade と SVD XT 1.1 を使用した txt2video
Stable Cascade モデルのダウンロード場所と .safetensors ファイルの配置場所について:https://gist.github.com/comfyanonymous/0f09119a342d0dd825bb2d99d19b781c
v1.3: SVD のデフォルトは now: svd_xt_1_1.safetensors
.gif 生成(.webp は廃止、.mp4 は引き続き利用可能)
v1.2: SVD img2vid_conditioning の fps デフォルト値を 8 から 10 に変更。以前は誤って 10 の保存値と異なっていた。
v1.1: インターフェースを明確化
v1: 最初のバージョン
必須条件:
1- Windows:NVIDIA GPU で VRAM 8GB 以上
Linux:NVIDIA GPU および AMD GPU で VRAM 8GB 以上
2- ComfyUI:https://github.com/comfyanonymous/ComfyUI
3- このワークフロー
4- ComfyUI\models\checkpoints に以下を配置:
https://huggingface.co/stabilityai/stable-video-diffusion-img2vid/blob/main/svd.safetensors <-- 14fps 動画用
または
https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt/blob/main/svd_xt.safetensors <-- 25fps 動画用
5- ComfyUI\models\checkpoints にチェックポイントを1つ配置
6- ComfyUI\models\vae にVAEを配置(オプション)
7- 欠落するノード用の ComfyUI Manager:https://github.com/ltdrdata/ComfyUI-Manager
※:SVD の推奨解像度は 576x1024 ですが、このワークフローではデフォルト値として 512x768(ステップ数40)を設定しています(20ステップでも十分です)。解像度やステップ数はご自身で選択してください。ただし、512x768 と 40ステップは試行の良い出発点になります。
サポートをご希望の場合は、私の Patreon をチェックしてください:https://www.patreon.com/Shiroppo
Civitai でフォローしてください(!!!):https://civitai.com/user/shiroppo
Twitter/X でフォロー:https://x.com/ShiroppoTwit
Pixiv:https://www.pixiv.net/users/96490888

