FACE to VIDEO simple workflow WAN2.1 | GGUF | PuLID | UPSCALE | TeaCache

詳細

ファイルをダウンロード

モデル説明

ワークフローの説明:

このワークフローの目的は、既存の写真の顔をシンプルなウィンドウで使用して動画を生成することです。

必要なリソース:

📂ファイル:

WAN2.1

推奨:
24 GB VRAM:Q8_0
16 GB VRAM:Q5_K_S
<12 GB VRAM:Q4_K_S

I2V Quantモデル: Wan2.1-I2V-14B-480P-gguf または Wan2.1-I2V-14B-720P-gguf
models/diffusion_models内に配置

CLIP: umt5_xxl_fp8_e4m3fn_scaled.safetensors
models/clip内に配置

CLIP-VISION: clip_vision_h.safetensors
models/clip_vision内に配置

VAE: wan_2.1_vae.safetensors
models/vae内に配置

FLUX

GGUFモデル: FLUX.1-dev-gguf
"flux1-dev-Q8_0.gguf" を ComfyUI\models\unet に配置

GGUF-CLIP: t5-v1_1-xxl-encoder-gguf
"t5-v1_1-xxl-encoder-Q8_0.gguf" を \ComfyUI\models\clip に配置

テキストエンコーダー: ViT-L-14-TEXT-detail-improved-hiT-GmP-TE-only-HF.safetensors
"ViT-L-14-GmP-ft-TE-only-HF-format.safetensors" を \ComfyUI\models\clip に配置

VAE: ae.safetensors
"ae" を \ComfyUI\models\vae に配置

FLUX PuLID: pulid_flux_v0.9.0.safetensors
"pulid_flux_v0.9.0" を \ComfyUI\models\pulid に配置

任意のアップスケールモデル(非推奨):

models/upscale_models内に配置

📦カスタムノード:

PuLIDにはPythonにInsightfaceが必要です:

使用しているPythonのバージョンを確認:


Windowsポータブル版の場合:(パスはComfyUIを解凍した場所によって異なります)


対応するInsightface whlファイルをダウンロード:Assets/Insightface
(私のローカルPythonは3.10、モバイル版は3.12です)

次に、すべての前提条件およびInsightfaceをインストール:

python.exe -m pip install --use-pep517 facexlibpython.exe -m pip install git+https://github.com/rodjjo/filterpy.git
python.exe -m pip install onnxruntime==1.19.2 onnxruntime-gpu==1.15.1 insightface-0.7.3-cp310-cp310-win_amd64.whl

このモデルで生成された画像

画像が見つかりません。