ComfyUI image-morphing low-VRAM LCM video animation workflow with poses
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
このワークフローにより、RTX 2060モバイル(VRAM 4GB未満)で、1024x1024の12.5秒・8fpsの動画を19分で、768x768の動画を13分で作成できました。
このワークフローは、2つのIPAdapter画像モデル間のモーフィング動画を作成することを目的としています。さらに、OpenPose画像を使用してアニメーションをサポートできます。
ワークフローは1フレームずつバッチサイズ1で処理するため、VRAM使用量が少ないです。
このワークフローはPNGフレームのみを作成するため、実際の動画はffmpegなどの外部ツールで作成する必要があります:
ffmpeg -framerate 8 -pattern_type glob -i 'vid4*.png' vid4.webm
バージョン2の注意点:
画像ファイル名の
filename_prefixに使用される計算式を、「a + b.zfill(5)」に変更すると、ファイル名の並べ替えが容易になります。以下のポーズを使用して、私の例動画を生成しました:/model/329183(ファイル名とパスは調整してください)
バージョン1の注意点:
ワークフローでは以下のOpenPose画像を使用していますが、他のポーズにも適用可能です:
/model/162947/open-pose-dwpose-running-animation-figures
(パスは調整が必要です)
現在のワークフローはCLIP_VISIONモデルとしてSVDを使用していますが、他のCLIP_VISIONモデルやローダーに置き換えることも可能です。
バージョン2の変更履歴:
グループを用いたレイアウトの改善
SVDではなく通常のCLIP_VISIONローダーを使用
フレーム番号をファイル名に保存
Depth ControlNetの追加
画像モーフィングのバイパス、ControlNetバイパスの追加
IPAdapterの強度制御の追加
バージョン2.5(進行中、6月頃リリース予定):
生成フレーム間の整合性を向上させるオプション
ハック的なjobiteratorノードを、Impact Packの手動キューまたはループノードで置き換え

