JBOOGX & MACHINE LEARNER ANIMATEDIFF WORKFLOW - Vid2Vid + ControlNet + Latent Upscale + Upscale ControlNet Pass + Multi Image IPAdapter + ReActor Face Swap

詳細

モデル説明

JBOOGX & MACHINE LEARNER ANIMATEDIFFワークフローへようこそ!

ワークフローの完全なYouTube解説:

1/8 アップデート
低解像度およびアップスケーラーにReActor顔スワップを追加。rgthreeノードパックを使用してバイパス/有効トグルスイッチを追加しました。

12/7 アップデート
このバージョンについて

v2では、いくつかの使いやすさの向上と更新が行われました。

ご希望のコントロールネットを簡単にバイパスできるよう、すべてのControlNetを個別のグループに分離しました。

IPAdapterでは、「LOAD Clip Vision」ノード用に、以下のファイルをcomfyui\clip_visionディレクトリにダウンロードして配置してください。

https://drive.google.com/file/d/13KXx6u9JpHnWdemhqswRQJhVqThEE-7q/view?usp=sharing

「LOAD IPAdapter Model」ノード用のIPAdapter Plus 1.5モデルは以下から入手できます。

https://github.com/cubiq/ComfyUI_IPAdapter_plus

アップスケーリングを行わない場合は、右下のすべてのアップスケーリンググループをバイパスしてください。

以上です :)

このワークフローで作成した作品には、ぜひ私をタグしてください。SNSでシェアします!

Instagram: @jboogx.creative
---------------------------------------------
免責事項:これは初心者向けではありません。初心者の場合は、以下にリンクされた@Inner_Reflections_Aiのvid2vidワークフローから始めてください:

https://civitai.com/articles/2379/guide-comfyui-animatediff-guideworkflows-including-prompt-scheduling-an-inner-reflections-guide

多くのリクエストを受け、私がストリームで使用しているこのワークフローを公開することにしました。これには以下の機能が含まれます…

-------------------------------------------------

  1. Vid2Vid + Control Nets - 使用しない場合はこれらのノードをバイパスし、必要な任意のCNとプリプロセッサを追加してください。含まれているものは私が普段使っているものです。

  2. Latent Upscaling - テスト中にアップスケーリングを行わない場合は、すべてのアップスケーリンググループと、latentアップスケールビデオ結合ノードを必ずバイパスしてください。

  3. Latent Upscaling中の2回目のControlNetパス - ベストプラクティスは、1回目のパスで使用したのと同じControlNetsを同じ強度・重みで使用することです。

  4. 複数画像のIPAdapter統合 - これらのノードをバイパスしないでください。そうでないと動作が壊れます。非常に下部にあるすべてのIPAdapter Imageノードに画像を挿入してください。IPAdapterをスタイルや画像参照として使用しない場合は、重みと強度をゼロに下げると、機能が無効になります。

  5. QRコードイリュージョンレンダリング - これを行うには、入力動画として白黒のアルファチャンネルを使用し、ControlNetとして「QR Code Monster」のみを使用してください。

    -------------------------------------------------

このワークフローは、@Inner_Reflections_AI がCivitaiの記事で公開したベースのVid2Vidワークフローを元に構築されました。このワークフローを完成させるためにさまざまな部分で助けてくれた、以下の才能あるアーティストたち(Instagramハンドル)に感謝します:

@lightnlense

@pxl.pshr

@machine.delusions

@automatagraphics

@dotsimulate

彼らの助けがなければ、私はこれほど多くの動画作成の喜びを得られなかったでしょう。私はこの分野で最も技術的に優れた人物ではありません。そのため、コミュニティからのご意見やさらなる改善のための調整を大歓迎します(これが私が今このワークフローを共有したい本当の理由です)。

いくつかのノードのダウンロードが必要になる場合がありますが、すべてComfy Manager経由で入手できるはずです(多分)。LoRA、ControlNet、アップスケーリングは、現在作成中のプロジェクトに応じて自由にバイパスできます。ノードの中級〜上級レベルの知識があると、オン/オフを切り替える際に発生するエラーに対応しやすくなります。完全な初心者の場合は、@Inner_Reflections_AI のベースVid2Vidワークフローから始めるようお勧めします。これは私がComfyUIを理解するための唯一の道でした。

ZIPファイルには、ワークフローの.jsonファイルと、ComfyUIワークスペースに単純にドロップしてすべてを読み込めるpngファイルが含まれています。ComfyUIマネージャーを通じて多くのノードをダウンロードする準備をしてください。

何か問題や質問があれば、時間が取れたときにできる限り対応します 🙂

このワークフローで素敵な作品を作ったら、ぜひInstagramで私をタグしてください。あなたの作品をシェアします。また、このワークフローや私のVision Weaver GPTから何らかの価値を得られた場合は、フォローも大歓迎です 🙂 使ってくれて気に入ったなら、素敵なレビューとスターを残してください!

@jboogx.creative

このモデルで生成された画像

画像が見つかりません。