Consistent character poses workflow
詳細
ファイルをダウンロード
モデル説明
ついに、一貫したキャラクターのポージングを実現する解決策が登場!
生成したいキャラクターと実行したいポーズを入力するだけです。
私が示した例は選りすぐりではありません。30回以上テストしましたが、すべて希望通りの結果を得られました。
WAN 2.1がControlNet対応の画像生成モデルをリリースするのを待つ間、このワークフローは一貫したキャラクターのポージングを実現するための最良の代替手段です。
Flux Kontextよりも遥かに優れて、高速です。
A4000 GPU(VRAM 16GB)では、3枚の画像を生成するのに約40~50秒かかります。
私がこのワークフローで使っている最速のWan2.1モデルのリンク:https://huggingface.co/QuantStack/Wan2.1_T2V_14B_LightX2V_StepCfgDistill_VACE-GGUF/tree/main
注意点1:私は非常に最適化されたWan2.1 vaceモデルを使用しており、生成設定を見ると、わずか4ステップと1のCFGしか使っていません。独自のWan2.1 vaceモデルを使用する場合、ご自身のモデルに最適な値に設定を増やしてください。ただし、私がリンクしたモデルをダウンロードすることを強く推奨します。なぜなら、非常に高速だからです!
Wan 2.1 vae: https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/vae
注意点2: Triton/Torch/CUDAエラーが発生する場合は、torchcompileModelwanVideoV2ノードを無効化し、Comfy Managerで「すべて更新」してから再起動してください。
私が使用しているCLIPモデル: https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors
使用したポーズ: /model/22214/openposes-collection(もちろん、ご自身のポーズを使っても構いません)
これで、キャラクター用のLoRAを作成するのに、1枚の参照画像だけで十分です。
あるいは、このワークフローを使っているのに、なぜLoRAを導入する必要があるのでしょうか?


