Consistent character poses workflow

詳細

ファイルをダウンロード

モデル説明

ついに、一貫したキャラクターのポージングを実現する解決策が登場!

生成したいキャラクターと実行したいポーズを入力するだけです。

私が示した例は選りすぐりではありません。30回以上テストしましたが、すべて希望通りの結果を得られました。

WAN 2.1がControlNet対応の画像生成モデルをリリースするのを待つ間、このワークフローは一貫したキャラクターのポージングを実現するための最良の代替手段です。

Flux Kontextよりも遥かに優れて、高速です。

A4000 GPU(VRAM 16GB)では、3枚の画像を生成するのに約40~50秒かかります。

私がこのワークフローで使っている最速のWan2.1モデルのリンク:https://huggingface.co/QuantStack/Wan2.1_T2V_14B_LightX2V_StepCfgDistill_VACE-GGUF/tree/main

注意点1:私は非常に最適化されたWan2.1 vaceモデルを使用しており、生成設定を見ると、わずか4ステップ1のCFGしか使っていません。独自のWan2.1 vaceモデルを使用する場合、ご自身のモデルに最適な値に設定を増やしてください。ただし、私がリンクしたモデルをダウンロードすることを強く推奨します。なぜなら、非常に高速だからです!

Wan 2.1 vae: https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/vae

注意点2: Triton/Torch/CUDAエラーが発生する場合は、torchcompileModelwanVideoV2ノードを無効化し、Comfy Managerで「すべて更新」してから再起動してください。

私が使用しているCLIPモデル: https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors

使用したポーズ: /model/22214/openposes-collection(もちろん、ご自身のポーズを使っても構いません)

これで、キャラクター用のLoRAを作成するのに、1枚の参照画像だけで十分です。
あるいは、このワークフローを使っているのに、なぜLoRAを導入する必要があるのでしょうか?

このモデルで生成された画像

画像が見つかりません。