V4 DeJanked Image 2 Video Hunyuan Magic with Flux and Refiner Speed Hack

詳細

ファイルをダウンロード

モデル説明

使わないでください

楽しかったです。I2Vの正式版がリリースされたので、それをダウンロードしてください。このバージョンは、正式版リリース前の変則的なI2V処理の初期手法を残しておくだけです。

最終版!(多分)

V4ではリファインメント速度ハックを導入(depthflowが使用するガイド動画と相性抜群)

Fluxを再有効化

より多くの電解質!

ここが私の最終版だと思います。この速度ハックと他のバックエンドワークフローを試すのは、とても楽しくもイライラする経験でしたが、今のところ私は満足しています。楽しんで使って、結果を下に投稿してください。問題があれば(いつも何かしら問題はあります)、コメント欄に投稿してください。私がまたは他の人が対応します。

さて、Hunyuan。君の出番だ。このハックを無意味にするために、正式版をリリースしてくれないか?みんなこんなダサいワークアラウンドを頑張ってるんだから、さっさと出してくれよ。ちなみに、このワークフローを公式に使うなら、私に支払ってね。私は食べたいんです。

ちなみに、こちらの他のワークフロー「LeapFusion」もチェックしてみて。実際かなりよく動きます。制御は少し劣りますが、元の画像に近い仕上がりになります。両方持っておくと楽しいです。

最終更新:(ハ!) 素晴らしいようにHunyuanリファイナーのステップを追加

スリム化

軽微な更新: V3.1は主に洗練に重点を置いています。 Reactorを削除(GitHubから削除済み) Fluxを削除(壊れている) Florenceを削除(メモリ使用量が大幅に多い) Denoodledを追加 depthflowにいくつかの新機能を追加

V3:いよいよ最終段階!

alright、これで十分だと思います。誰かがここから創造的に進化してください。私はこの全体的な試みを終えることに満足しています…(次に気が変わったらまたやるかもしれませんが。とにかくHunyuan、正式な画像→動画機能をリリースしてくれよ)

それ以外の調整: Florenceを推奨プロンプト用に追加(直接は接続せず、Hunyuan部分で使用する場合に提案を提供)

オン/オフスイッチを追加

より論理的なフロー(軽微なオーバーヘッド削減)

DepthFlowの後、画像を縮小して画素の保持を向上

より多くのストローク色(黒を追従)と重要な設定エリアの整理

他にもいくつかメモしていない調整を加えました。

V2:

より最適化、いくつか設定を追加、無意味なノードを削除、全体的に改善されたワークフロー。また、XLの代わりにFluxを使いたい場合のオプショナルFluxグループも追加

Teacacheのサポートも追加(速度向上のために試してみてください。ただししきい値は少しずつ上げて、乱暴にしないで)

とにかく、これを使ってみてください。実はかなり印象的です。正式なI2Vがリリースされたときとの差異は大したことがないと思います…(でも、正式版の方が速いといいな。depthflowステップが遅いのが課題です)

ちなみに、1000バズを寄付してくれた方に感謝します。何に使えばいいのか正直わかりませんが、とても嬉しかったです!

(注:私はHunyuanFastと通常版、LoRAについて本当のところよくわかっていません。私は「使わないで」と書きましたが、Fastモデルを使用している場合はその通りです。ただし、フルモデルを使うなら問題ありません。他の人に聞いてください。私の言葉を絶対と信じないでください。私はGPT2.0が適当に作ったようなものです。私が知っているのは、このプロセスがハック的な画像→動画を非常にうまく再現できるということだけです)

XL HunYuan Janky I2V DepthFlow:少し洗練されたダサいワークフロー

これは本物の画像→動画です。同時に魔法です。DepthFlowの呪術とHunYuanの魔力が融合して、本物の動きのように見えるもの(まあ、実際の動きです…某种程度)を作り出します。実用的か、それとも単に面白いか、あなた次第です。

始める前に重要な注意点

  1. ノイズ除去の自由度。広範囲な動きやダイナミックな変化が欲しいなら、ノイズ除去を強めに設定してください。処理速度は落ちませんが、設定値が高すぎると(0.80以上)元の画像を大きく変えてしまいます。注意してください。0.80以上でも、画像の類似性は保たれます。

  2. 解像度の重要性。DepthFlowに渡す前のデスケールステップでは、解像度を512以下に保ってください。大きな解像度は処理が遅くなります。どうして自分にそんな苦行を課すんですか?

  3. 顔が溶けるのは問題じゃない。高めのノイズ除去は顔や他の細部を変化させます。元の顔を正確に保ちたいなら、Reactorで顔のスワップをオンにしてください。それ以外はオフにして、時間の節約と混沌を楽しんでください。

  4. DepthFlowが魔法の杖。DepthFlowに与えるステップ数が多いほど、動画は長くなります。試してみてください。これが、大胆で表現豊かな動きを生み出す鍵です。

  5. LoRAの設定ヒント

    • FastLoRAは使わないでください。デフォルトで有効になっているFast Hunyuanモデルでは動作しません。モデルを変更した場合は使用可能です。
    • どのLoRAでも、直接使用していない場合でもロードしてください。モデルはLoRAの滑らかさを活用して結果を改善します。
    • HunYuanには、現実的な仕上がりを目指すならEdge_Of_Reality LoRAや類似のLoRAを推奨します。
  6. XL LoRAsは通常通り動作。XLフェーズでは通常のワークフローのように扱ってください。HunYuanフェーズでは、LoRAは補助的な役割になります。ここでは自由に試して、あなたのビジョンに合わせてリアリズム系やスタイル系LoRAを使ってみてください。

警告:ワークフロー内ではReactorはデフォルトでオフです!

(元の顔を絶対に保ちたいならオンに。それ以外はオンにしないで、大幅な時間節約を。)

使い方

  1. 開始画像を生成

    • XLフェーズではプロンプトを詳細に記述するか、既存画像を画像2画像で洗練してください。
    • Fluxの強化を希望するなら、使ってください。ただしオプショナルです。Hunyuan側のノイズ除去でFluxの魔法はほとんど変わってしまうため、私はXLの速度を優先しましたが、試してみてもいいです。グループを有効にして、変更して、準備完了です。スイッチ一つで簡単に切り替えられます。
  2. DepthFlowが動きを生成

    • DepthFlowで過剰なズーム、パン、チルトを加えてください。これにより、HunYuanが動的なジェスチャー、歩行などを解釈します。
    • 混沌を目的としない限り、あまり過剰にしないでください。
  3. HunYuanが処理

    • ここで魔法が起こります。ノイズ、ノイズ除去、動きの解釈によって、DepthFlowの出力を滑らかで動く動画に変換します。
    • 低めのノイズ除去(0.50以下)は元画像に近い仕上がりになります。高めのノイズ除去(0.80以上)は動きが際立つ一方で、元画像から大きく逸脱します。
  4. Reactor(オプション)

    • 元の顔を正確に保ちたいなら、Reactorでフレーム単位で顔を再挿入します。
    • 顔に若干の変化があっても構わないなら、Reactorをオフにして時間を節約してください。
  5. 最終結果をアップスケール

    • 最終ステップで、動画を1024x1024(または元の解像度の2倍)にアップスケールします。

なぜこのワークフローが存在するのか

Hunyuanの真の画像→動画機能がリリースされるのを長く待つのは退屈だったので、何か手を動かすものが必要でした。この(それほど)ダサくないプロセスは機能し、実験していてとても楽しいです。

二度目の警告:
まだインストールしていないノード(DepthFlow、Reactor、その他いくつか)をダウンロードするよう求められるでしょう。念のためお知らせします。

最終的な意見

このワークフローは完璧ではありませんが、目的は果たせます。改善点があれば、自由に手を加えてください。クレジットは歓迎しますが、必須ではありません。ただ、LoRAやワークフローの実験を人々に刺激できればいいと思っています。

そして忘れないでください。これはハリウッド級の動画生成ではありません。技術が「ほぼできてるけど、まだちょっと足りない」段階にいる私たちのための、創造的な魔法です。楽しんでください!

このモデルで生成された画像

画像が見つかりません。