ComfyUI Txt2Video with SVD

詳細

ファイルをダウンロード

モデル説明

アップデート:SVD ver 1.1 をこちらからダウンロードできます: https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt-1-1/tree/main

「このモデルは、同じサイズのコンテキストフレームを入力として1024x576解像度で25フレームの動画を生成するよう学習され、SVD Image-to-Video [25フレーム] からファインチューニングされています。」

Stable Video Diffusion の Img2Video を用いて、この ComfyUI ワークフローにより、希望のプロンプト、ネガティブプロンプト、チェックポイント(およびVAE)で画像を生成し、その画像から自動的に動画を作成できます。

v1.3_sd3: Stable Diffusion 3 と SVD XT 1.1 を使用した txt2video

Stable Diffusion 3 モデルのダウンロード場所と .safetensors ファイルの配置場所について:/model/497255/stable-diffusion-3-sd3

v1.3_cascade: Stable Cascade と SVD XT 1.1 を使用した txt2video

Stable Cascade モデルのダウンロード場所と .safetensors ファイルの配置場所について:https://gist.github.com/comfyanonymous/0f09119a342d0dd825bb2d99d19b781c

v1.3: SVD のデフォルトは now: svd_xt_1_1.safetensors

.gif 生成(.webp は廃止、.mp4 は引き続き利用可能)

v1.2: SVD img2vid_conditioning の fps デフォルト値を 8 から 10 に変更。以前は誤って 10 の保存値と異なっていた。

v1.1: インターフェースを明確化

v1: 最初のバージョン

必須条件:

1- Windows:NVIDIA GPU で VRAM 8GB 以上

Linux:NVIDIA GPU および AMD GPU で VRAM 8GB 以上

2- ComfyUI:https://github.com/comfyanonymous/ComfyUI

3- このワークフロー

4- ComfyUI\models\checkpoints に以下を配置:

https://huggingface.co/stabilityai/stable-video-diffusion-img2vid/blob/main/svd.safetensors <-- 14fps 動画用

または

https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt/blob/main/svd_xt.safetensors <-- 25fps 動画用

5- ComfyUI\models\checkpoints にチェックポイントを1つ配置

6- ComfyUI\models\vae にVAEを配置(オプション)

7- 欠落するノード用の ComfyUI Manager:https://github.com/ltdrdata/ComfyUI-Manager

※:SVD の推奨解像度は 576x1024 ですが、このワークフローではデフォルト値として 512x768(ステップ数40)を設定しています(20ステップでも十分です)。解像度やステップ数はご自身で選択してください。ただし、512x768 と 40ステップは試行の良い出発点になります。

サポートをご希望の場合は、私の Patreon をチェックしてください:https://www.patreon.com/Shiroppo

Civitai でフォローしてください(!!!):https://civitai.com/user/shiroppo

Twitter/X でフォロー:https://x.com/ShiroppoTwit

Pixiv:https://www.pixiv.net/users/96490888


このモデルで生成された画像

画像が見つかりません。