Wan2.1vdieo GGUF (t2v/i2v/FunCon/InP)
詳細
ファイルをダウンロード
モデル説明
Funcon&InP
ENG:
VRAMが少ない場合は、段階的に生成することをお勧めします。(私の12GB環境では、SD1.5での一括生成しかできません。Pony & Fluxを使用するには12GB以上が必要です。そうでない場合は、段階的に生成し、スイッチをオフにして次のワークフローに進んでください。)FunconとInpは別々のワークフローです。同時に実行しないでください。画像を使用する場合、最初のフレームの動画に合わせるために画像から画像への変換を行い、新しい画像を作成します。OOMエラーが発生した場合は、段階的に生成するか、モデルをアンロードして再試行してください。このワークフローには英語と中国語の説明が含まれています。
Reward-LoRAs (MPS)
https://huggingface.co/alibaba-pai/Wan2.1-Fun-Reward-LoRAs/tree/main
PS:
1.3B:funcontrol,
https://huggingface.co/alibaba-pai/Wan2.1-Fun-1.3B-InP/tree/main
inp
https://huggingface.co/alibaba-pai/Wan2.1-Fun-1.3B-Control/tree/main
GGUF14b:
funcontrol
https://huggingface.co/city96/Wan2.1-Fun-14B-Control-gguf/tree/main
inp
https://huggingface.co/city96/Wan2.1-Fun-14B-InP-gguf/tree/main
中文:
バーチャルメモリが不足している場合は、段階的に生成することをお勧めします(私の12GB環境では、一括生成を使用できるのはSD1.5のみです。Pony & Fluxを使用するには12GB以上のVRAMが必要です。それ以外の場合は、段階的に生成し、スイッチをオフにして次のワークフローに進んでください)。FunconとInpは2つの別々のワークフローです。同時に起動しないでください。画像を使用する際、最初のフレームの動画にできるだけ一致させるために、画像から画像への変換を実行し、新しい画像を作成します。OOMエラーが発生した場合は、段階的に生成するか、モデルをアンロードして再試行してください。このワークフローには英語と中国語の説明が同梱されています。以下にダウンロードリンクを記載します。
Reward-LoRAs (MPS)
https://huggingface.co/alibaba-pai/Wan2.1-Fun-Reward-LoRAs/tree/main
1.3B:
funcontrol,
https://huggingface.co/alibaba-pai/Wan2.1-Fun-1.3B-InP/tree/main
inp
https://huggingface.co/alibaba-pai/Wan2.1-Fun-1.3B-Control/tree/main
GGUF14b:
funcontrol
https://huggingface.co/city96/Wan2.1-Fun-14B-Control-gguf/tree/main
inp
https://huggingface.co/city96/Wan2.1-Fun-14B-InP-gguf/tree/main
これは私の個人的なWan2ワークフローです。私のデバイスはRTX 3060 12GBであるため、GGUFを使用して生成しています。しかし、このワークフローには特別な点はなく、単なる基本的なプロセスです。すでに他のワークフローをお持ちの場合は、無視してください。
使用上の注意:
ネイティブなT5モデルを使用する必要があります。リンク
ComfyUIとGGUFを最新版に更新する必要があります。
このモデルをお気に入りでしたら、👍 で評価し、レビューをお願いします!また、⚡ を頂けると大変喜びます。気に入らなかった場合でも、なぜ気に入らなかったか教えていただけると改善に役立ちます!
※ 私はForgeまたはComfyUIを使用して生成しています。結果が私のものと完全に一致しない場合、これは理由が説明しているかもしれません。私のLoRAは特定のチェックポイントでは動作しない可能性があります。その場合は、別のチェックポイントに切り替えてください。
