Stable Video Diffusion (SDV) Workflow ComfyUI

詳細

ファイルをダウンロード

モデル説明

Stable Video Diffusion(オリジナルStabilityリリース)

現在、画像から動画への変換用チェックポイントが2つあります。以下は、14フレームの動画を生成するように調整されたものと、25フレームの動画用のものの公式チェックポイントです。これらをComfyUI/models/checkpointsフォルダーに配置してください。

画像から動画へのモデルを使用する最も基本的な方法は、以下のようなワークフローで14フレームモデルを使用する際に、初期画像(init image)を提供することです。このWebPアニメーション画像をダウンロードして読み込むか、ComfyUIにドラッグしてワークフローを取得できます。

パラメータの説明:

video_frames:生成する動画フレーム数。

motion_bucket_id:数値が大きいほど、動画に動きが増加します。

fps:fpsが高いほど、動画の動きが滑らかになります。

augmentation level:初期画像に加えられるノイズの量。値が高いほど、動画は初期画像とは異なる外観になります。より多くの動きを生み出したい場合はこの値を上げてください。

VideoLinearCFGGuidance:このノードは、これらの動画モデルのサンプリングを若干改善します。機能としては、フレームごとにCFGを線形にスケーリングします。上記の例では、最初のフレームはCFG 1.0(ノード内のmin_cfg)、中央のフレームは1.75、最後のフレームは2.5(サンプラーで設定されたCFG)になります。このように、初期フレームから遠いフレームほど徐々にCFGが高くなります。

再掲:
https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt/tree/main

このモデルで生成された画像

画像が見つかりません。