ComfyUI image-morphing low-VRAM LCM video animation workflow with poses

詳細

ファイルをダウンロード

モデル説明

このワークフローにより、RTX 2060モバイル(VRAM 4GB未満)で、1024x1024の12.5秒・8fpsの動画を19分で、768x768の動画を13分で作成できました。

このワークフローは、2つのIPAdapter画像モデル間のモーフィング動画を作成することを目的としています。さらに、OpenPose画像を使用してアニメーションをサポートできます。

ワークフローは1フレームずつバッチサイズ1で処理するため、VRAM使用量が少ないです。

このワークフローはPNGフレームのみを作成するため、実際の動画はffmpegなどの外部ツールで作成する必要があります:

ffmpeg -framerate 8 -pattern_type glob -i 'vid4*.png' vid4.webm

バージョン2の注意点:

  • 画像ファイル名のfilename_prefixに使用される計算式を、「a + b.zfill(5)」に変更すると、ファイル名の並べ替えが容易になります。

  • 以下のポーズを使用して、私の例動画を生成しました:/model/329183(ファイル名とパスは調整してください)

バージョン1の注意点:

ワークフローでは以下のOpenPose画像を使用していますが、他のポーズにも適用可能です:

/model/162947/open-pose-dwpose-running-animation-figures

(パスは調整が必要です)

現在のワークフローはCLIP_VISIONモデルとしてSVDを使用していますが、他のCLIP_VISIONモデルやローダーに置き換えることも可能です。

バージョン2の変更履歴:

  • グループを用いたレイアウトの改善

  • SVDではなく通常のCLIP_VISIONローダーを使用

  • フレーム番号をファイル名に保存

  • Depth ControlNetの追加

  • 画像モーフィングのバイパス、ControlNetバイパスの追加

  • IPAdapterの強度制御の追加

バージョン2.5(進行中、6月頃リリース予定):

  • 生成フレーム間の整合性を向上させるオプション

  • ハック的なjobiteratorノードを、Impact Packの手動キューまたはループノードで置き換え

このモデルで生成された画像

画像が見つかりません。