FramePack 💎 img2vid / txt2vid with LoRa Workflow

詳細

ファイルをダウンロード

モデル説明

mmaudioは、その後の生成でCUDAの使用を遅くします。すでにカスタムノードをgit pullしました。nodiff

1.3は現在1.3.1にアップデートしました。GIMMVIFを削除し、RAMに問題を引き起こしていたため、シャープネスノードを別のものに置き換えました。

このワークフローをコントロールパネルとして考えてください。デザインが気に入らない場合は、ダウンロードしないでください。以下にスクリーンショットを示します:

v1.3.1

  • リサイズ画像ノードを更新
  • スタート画像入力用のバッチローダーを追加
  • ビデオをエクストラオプションに追加
  • 分離された顔リファイナーステップを追加
  • MMaudioセクションを追加(VRAMにモデルをロードします)
  • T2V用の視覚的解像度/アスペクト比セレクターを追加
  • フレームトリミングノードを変更
  • film_net_fp32用のGIMMVIF補間を削除
  • シャープネス画像をSharpen MTBに置き換え

v1.2.1

  • GIMMVIF補間を追加(ds_factor(ダウンスケーリング)を0.25に設定すると、補間速度が向上しますが、やや画質が低下します)
  • ワイルドカード処理ノードを追加

v1.2を追加

  • プロンプト入力とモデルローダーを整理
  • ポジティブプロンプトでの画像詳細を補助するCLIP VISIONを追加(ダウンロード
  • VRAM解放管理ノードを追加
  • 長さおよびlatent_window_sizeの外部共通入力を追加

Kijaiのワークフローを採用し、カスタマイズして追加:

  • モデルとリスケーラーを備えたアップスケーラー
  • シャープネス付き補間
  • サンプラーの切り替え(デフォルトまたはF1)
  • モードの切り替え(i2vまたはt2v)
  • 5フレームを削除(非ピンポンVHSでは開始から、ピンポンVHSでは開始と終了から削除。T2Vのデフォルトは40フレーム)
  • Reactorノードを顔交換/リファインに使用しますが、いくつかのバグにより、その後の生成が遅くなります。必要なければReactorノードを削除してください。

F1サンプラーを使用したテキスト→ビデオモード:

FramePack Text Encode (Timestamped)(F1用プロンプト)にマウスオーバーすると、タイムスタンプ付きプロンプトパターンの詳細が表示されます:

* 他のカスタムノードのリンクが見落としていないか、教えてください。追加します。

また、現在のラッパーにバグがあり、CFGを1(デフォルト)以上に増やすと、推論時間が2倍になります。ワークフローを修正する唯一の方法は、新しいサンプラーを追加し、接続を再配置することです(Comfyを再起動しても無効です)。残念ですが、これが現状です。

ノード:

最新のKijaiラッパー版:https://github.com/kijai/ComfyUI-FramePackWrapper.git

F1サンプラー:https://github.com/kijai/ComfyUI-FramePackWrapper/pull/14/files

以下も使用できます:

https://github.com/ShmuelRonen/ComfyUI-FramePackWrapper_Plus

GIMMVIF:

[https://github.com/kijai/ComfyUI-GIMM-VFI](自己ダウンロード対応モデル)

モデルリンク:

https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/FramePackI2V_HY_fp8_e4m3fn.safetensors

https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/FramePackI2V_HY_bf16.safetensors

sigclip:

https://huggingface.co/Comfy-Org/sigclip_vision_384/tree/main

テキストエンコーダーとVAE:

https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tree/main/split_files

----

このモデルで生成された画像

画像が見つかりません。