V4 DeJanked Image 2 Video Hunyuan Magic with Flux and Refiner Speed Hack
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
使わないでください
楽しかったです。I2Vの正式版がリリースされたので、それをダウンロードしてください。このバージョンは、正式版リリース前の変則的なI2V処理の初期手法を残しておくだけです。
最終版!(多分)
V4ではリファインメント速度ハックを導入(depthflowが使用するガイド動画と相性抜群)
Fluxを再有効化
より多くの電解質!
ここが私の最終版だと思います。この速度ハックと他のバックエンドワークフローを試すのは、とても楽しくもイライラする経験でしたが、今のところ私は満足しています。楽しんで使って、結果を下に投稿してください。問題があれば(いつも何かしら問題はあります)、コメント欄に投稿してください。私がまたは他の人が対応します。
さて、Hunyuan。君の出番だ。このハックを無意味にするために、正式版をリリースしてくれないか?みんなこんなダサいワークアラウンドを頑張ってるんだから、さっさと出してくれよ。ちなみに、このワークフローを公式に使うなら、私に支払ってね。私は食べたいんです。
ちなみに、こちらの他のワークフロー「LeapFusion」もチェックしてみて。実際かなりよく動きます。制御は少し劣りますが、元の画像に近い仕上がりになります。両方持っておくと楽しいです。
最終更新:(ハ!) 素晴らしいようにHunyuanリファイナーのステップを追加
スリム化
軽微な更新: V3.1は主に洗練に重点を置いています。 Reactorを削除(GitHubから削除済み) Fluxを削除(壊れている) Florenceを削除(メモリ使用量が大幅に多い) Denoodledを追加 depthflowにいくつかの新機能を追加
V3:いよいよ最終段階!
alright、これで十分だと思います。誰かがここから創造的に進化してください。私はこの全体的な試みを終えることに満足しています…(次に気が変わったらまたやるかもしれませんが。とにかくHunyuan、正式な画像→動画機能をリリースしてくれよ)
それ以外の調整: Florenceを推奨プロンプト用に追加(直接は接続せず、Hunyuan部分で使用する場合に提案を提供)
オン/オフスイッチを追加
より論理的なフロー(軽微なオーバーヘッド削減)
DepthFlowの後、画像を縮小して画素の保持を向上
より多くのストローク色(黒を追従)と重要な設定エリアの整理
他にもいくつかメモしていない調整を加えました。
V2:
より最適化、いくつか設定を追加、無意味なノードを削除、全体的に改善されたワークフロー。また、XLの代わりにFluxを使いたい場合のオプショナルFluxグループも追加
Teacacheのサポートも追加(速度向上のために試してみてください。ただししきい値は少しずつ上げて、乱暴にしないで)
とにかく、これを使ってみてください。実はかなり印象的です。正式なI2Vがリリースされたときとの差異は大したことがないと思います…(でも、正式版の方が速いといいな。depthflowステップが遅いのが課題です)
ちなみに、1000バズを寄付してくれた方に感謝します。何に使えばいいのか正直わかりませんが、とても嬉しかったです!
(注:私はHunyuanFastと通常版、LoRAについて本当のところよくわかっていません。私は「使わないで」と書きましたが、Fastモデルを使用している場合はその通りです。ただし、フルモデルを使うなら問題ありません。他の人に聞いてください。私の言葉を絶対と信じないでください。私はGPT2.0が適当に作ったようなものです。私が知っているのは、このプロセスがハック的な画像→動画を非常にうまく再現できるということだけです)
XL HunYuan Janky I2V DepthFlow:少し洗練されたダサいワークフロー
これは本物の画像→動画です。同時に魔法です。DepthFlowの呪術とHunYuanの魔力が融合して、本物の動きのように見えるもの(まあ、実際の動きです…某种程度)を作り出します。実用的か、それとも単に面白いか、あなた次第です。
始める前に重要な注意点
ノイズ除去の自由度。広範囲な動きやダイナミックな変化が欲しいなら、ノイズ除去を強めに設定してください。処理速度は落ちませんが、設定値が高すぎると(0.80以上)元の画像を大きく変えてしまいます。注意してください。0.80以上でも、画像の類似性は保たれます。
解像度の重要性。DepthFlowに渡す前のデスケールステップでは、解像度を512以下に保ってください。大きな解像度は処理が遅くなります。どうして自分にそんな苦行を課すんですか?
顔が溶けるのは問題じゃない。高めのノイズ除去は顔や他の細部を変化させます。元の顔を正確に保ちたいなら、Reactorで顔のスワップをオンにしてください。それ以外はオフにして、時間の節約と混沌を楽しんでください。
DepthFlowが魔法の杖。DepthFlowに与えるステップ数が多いほど、動画は長くなります。試してみてください。これが、大胆で表現豊かな動きを生み出す鍵です。
LoRAの設定ヒント。
- FastLoRAは使わないでください。デフォルトで有効になっているFast Hunyuanモデルでは動作しません。モデルを変更した場合は使用可能です。
- どのLoRAでも、直接使用していない場合でもロードしてください。モデルはLoRAの滑らかさを活用して結果を改善します。
- HunYuanには、現実的な仕上がりを目指すならEdge_Of_Reality LoRAや類似のLoRAを推奨します。
XL LoRAsは通常通り動作。XLフェーズでは通常のワークフローのように扱ってください。HunYuanフェーズでは、LoRAは補助的な役割になります。ここでは自由に試して、あなたのビジョンに合わせてリアリズム系やスタイル系LoRAを使ってみてください。
警告:ワークフロー内ではReactorはデフォルトでオフです!
(元の顔を絶対に保ちたいならオンに。それ以外はオンにしないで、大幅な時間節約を。)
使い方
開始画像を生成
- XLフェーズではプロンプトを詳細に記述するか、既存画像を画像2画像で洗練してください。
- Fluxの強化を希望するなら、使ってください。ただしオプショナルです。Hunyuan側のノイズ除去でFluxの魔法はほとんど変わってしまうため、私はXLの速度を優先しましたが、試してみてもいいです。グループを有効にして、変更して、準備完了です。スイッチ一つで簡単に切り替えられます。
DepthFlowが動きを生成
- DepthFlowで過剰なズーム、パン、チルトを加えてください。これにより、HunYuanが動的なジェスチャー、歩行などを解釈します。
- 混沌を目的としない限り、あまり過剰にしないでください。
HunYuanが処理
- ここで魔法が起こります。ノイズ、ノイズ除去、動きの解釈によって、DepthFlowの出力を滑らかで動く動画に変換します。
- 低めのノイズ除去(0.50以下)は元画像に近い仕上がりになります。高めのノイズ除去(0.80以上)は動きが際立つ一方で、元画像から大きく逸脱します。
Reactor(オプション)
- 元の顔を正確に保ちたいなら、Reactorでフレーム単位で顔を再挿入します。
- 顔に若干の変化があっても構わないなら、Reactorをオフにして時間を節約してください。
最終結果をアップスケール
- 最終ステップで、動画を1024x1024(または元の解像度の2倍)にアップスケールします。
なぜこのワークフローが存在するのか
Hunyuanの真の画像→動画機能がリリースされるのを長く待つのは退屈だったので、何か手を動かすものが必要でした。この(それほど)ダサくないプロセスは機能し、実験していてとても楽しいです。
二度目の警告:
まだインストールしていないノード(DepthFlow、Reactor、その他いくつか)をダウンロードするよう求められるでしょう。念のためお知らせします。
最終的な意見
このワークフローは完璧ではありませんが、目的は果たせます。改善点があれば、自由に手を加えてください。クレジットは歓迎しますが、必須ではありません。ただ、LoRAやワークフローの実験を人々に刺激できればいいと思っています。
そして忘れないでください。これはハリウッド級の動画生成ではありません。技術が「ほぼできてるけど、まだちょっと足りない」段階にいる私たちのための、創造的な魔法です。楽しんでください!




