Wan2.1_14B_FusionX
詳細
ファイルをダウンロード
モデル説明
🌀 Wan2.1_14B_FusionX — 8ステップでより速く、豊かな動きと詳細を実現するマージ済みモデル!
📢 2025年7月1日更新!
新機能:FusionX Lightningワークフロー
WAN2.1でより高速な動画生成をお探しですか?新しいFusionX_Lightning_Workflowsをご確認ください — LightX LoRAで最適化され、わずか**70秒(4ステップ、1024x576)**で動画をレンダリング可能!
🧩 対応形式:
• Native • Native GGUF • Wrapper
(VACE と Phantom まもなく追加予定)
🎞️ 画像から動画への変換が大幅に進化!!!!
より優れたプロンプトの忠実度、より豊かな動き、さらなる滑らかなダイナミクスを実現。
⚖️ FusionX と Lightning の違いは?
元モデル = 最大のリアリズム
Lightning = スピード + 低VRAM 使用、スマートなプロンプトで同レベルの品質を実現
👉 こちらでチェック
☕ 私の活動を気に入っていただけましたか?こちらでサポートしてください:Buy Me A Coffee 💜
一杯のコーヒーが、より多くの無料LoRAとワークフローの開発を支えます!
📢 ご存知でしたか?FusionXをフルベースモデルではなくLoRAとして使用できるようになりました!
ご自身のWAN2.1 + SkyReels環境を維持しながら、より細やかな制御を望む方に最適です。
🔗 FusionX LoRAsはこちらから入手:HERE
🔗 または大幅な速度向上を求める方はLightningワークフローをこちらで確認:HERE
📌 重要:詳細をご一読ください!
設定のわずかな変更が、逆に非常に悪い結果を招くことがあります!私は既に最適な設定をテスト済みですので、必ず下記をご覧ください! ありがとうございます :)
💡 ワークフローはこちらで確認できます。(現時点では作成中で、近日中にもさらに追加予定です。)
🛠️ 更新情報は、本文の最後に移動しました。
ベースとなるWAN 2.1 14B T2Vモデルを基に構築された高性能テキスト→動画モデル。複数の研究レベルモデルと丁寧にマージされ、動きの品質、シーンの一貫性、視覚的細部の向上を実現。多くのクローズドソースモデルに匹敵するレベルです。
## 📢 コミュニティに参加しましょう!
仲間と交流し、作品を共有し、サポートを得られる温かいスペースです。
#welcomeでご挨拶し、ルールをご確認の上、ご自身の創作を披露してください!🎨🧠
💡 このベースモデルには以下が含まれます:
🧠 CausVid – より良いシーンフローと劇的な速度向上のための因果的モーションモデリング
🎞️ AccVideo – 時間的整合性とリアリズム、そして速度向上を強化
🎨 MoviiGen1.1 – 映画的滑らかさとライティングを追加
🧬 MPS Reward LoRA – 動きのダイナミクスと細部に最適化
✨ カスタムLoRA(私作) – テクスチャー、鮮明さ、微細なディテールに特化。(これらはすべて非常に低い強度に設定されており、影響はごく小さいです)
🔥 主な特長:
📝 標準的なプロンプト+否定プロンプト構成をサポート
🌀 高い時間的整合性と表現力豊かな映画的シーンに最適化
🔁 WAN 2.1 T2Vの差し替えモデルとして使用可能 — ただ「より良い」だけ
🚀 ベースモデルより最大50%高速にレンダリング(SageAttn有効時さらに加速)
🧩 VACE と完全互換
🧠 ComfyUI用に最適化 — Kijai Wan Wrapper および ネイティブノードの両方に対応
📌 テキスト→動画生成のための重要設定:
🔧 CGFは必ず「1」に設定 — それ以上にすると期待される結果を得られません。
🔧 Shift値 — 解像度によって結果が異なります。1024x576の場合は1から、1080x720の場合は2から開始してください。
注意: リアリズムを重視する場合、低いShift値が必要です。スタイリッシュな見た目を求める場合は、Shift値を3~9で試してみてください。スケジューラー:私の例では主にUni_pcを使用しましたが、他のスケジューラーでも異なる結果が得られます。試行錯誤が鍵です。プロンプトによってはflowmatch_causvidが小技の表現に有効です。
📌 画像→動画生成のための重要設定:
🔧 CGFは必ず「1」に設定 — それ以上にすると期待される結果を得られません。
🔧 Shift値:画像→動画では、2が最適と判明しましたが、試行錯誤してください。
スケジューラー:私の例ではdmp++_sde/betaが最適でした。他のスケジューラーでも試してみてください。
動きを増やし、スローモーションのような印象を減らすには、フレーム数を121、フレームレートを24fpsに設定してください。これにより最大50%の動き速度向上が実現できます。
📌 その他の重要な詳細:
⚡ 動画生成は6ステップで可能ですが、8~10ステップで最高品質が得られます。低ステップは高速な草稿作成に最適。
🧩 最適な結果を得るにはKijai Wan Wrapperカスタムノードを使用:
https://github.com/kijai/ComfyUI-WanVideoWrapper🧪 ネイティブWANワークフローでもテスト済み。生成時間はやや長くなりますが、結果はWrapperと同等です。
❗ CausVid、AccVideo、MPS LoRAを再度追加しないでください — これらはモデルにすでに組み込まれており、追加すると不都合な結果を招きます。
🎨 他のLoRAを使用してスタイル追加は自由に可能です。ぜひ試してみてください。
📽️ すべてのデモ動画は1024x576、81フレームで、このモデルのみを使用して生成(アップスケーリング、補間、追加LoRAは一切使用していません)。
🖥️ RTX 5090でレンダリング。上記設定では各動画約138秒かかります。
🧠 VRAMが足りなくなった場合、ブロックスワッピングを有効にしてください。最初は5ブロックから始め、必要に応じて調整してください。
🚀 SageAttnを有効にすることで、最大30%の速度向上が実現(Wrapperでのみ有効)。
各モデルのワークフローはこちら:HERE
🚫 teacacheは使用しないでください — ステップ数が少ないため不要です。
🔍 「動画を強化」および「SLG」機能はテストしていません。ご自身で試してみてください。
— 追記:「動画を強化」はテスト済みで、オンにするとより鮮やかな結果が得られます。設定値は2~4。試行錯誤してください。SLGはまだほとんどテストしていません。💬 質問がありますか?メッセージを残すか、コミュニティに参加してください:
📝 より良いプロンプトが欲しいですか? 私のすべての例動画のプロンプトは、このカスタムGPTで作成しました:
🎬 WAN Cinematic Video Prompt Generator
視覚的・映画的ディテールを追加するよう指示してみてください。効果は明確にわかります。
⚠️ 免責事項:
このモデルで生成された動画は、個人的・教育的・実験的用途にのみ利用することを目的としています。法的調査を自身で完了していない限り、商用利用はしないでください。
このモデルは複数の研究レベルのソースをマージしたものであり、著作権または所有権のあるデータを含まないとは保証できません。
生成コンテンツの責任はすべて利用者にあります。
商用利用をご希望の場合は、著作権侵害、不適切使用、第三者権利の侵害に関するすべての法的責任を自己負担してください。
不確実な場合は、生成コンテンツの収益化・配布前に、資格のある法律専門家に相談してください。
### 🧠 GGUFバージョンの追加
- 🎞️ [FusionX T2V VACE GGUF(ネイティブ用)]
- 👻 [FusionX Phantom GGUF(ネイティブ用)]
###🧠 fp16バージョンはこちら:
-- 🖼️fp16 FusionX モデル
📌GGUF比較!
徐々にリストを追加中ですが、以下に主要モデルとの比較を示します。
テキスト→動画:
--------
🛠️ 2025年6月8日更新 - 画像→動画モデルを公開!例動画で使用した設定:ステップ=10 / CFG=1 / Shift=2 / スケジューラー=dmp++_sde。ワークフローは近日公開予定。
🛠️ 2025年6月7日更新 - 最大4枚の参照画像を結合したi2v Phantomモデルを公開。ワークフローを近日掲載予定。
Phantom WFはすぐアップロードされます。
🛠️ 2025年6月6日更新 - 新しいGGUFモデルを追加!最高品質を求める場合、V1.0モデルをご利用ください(VRAMが十分にある場合)。それ以外はGGUFが次善の選択肢です。GGUFモデルはRTX 5090でも生成に時間がかかります。
