Multi Image To Video Workflow for ComfyUI
詳細
ファイルをダウンロード
モデル説明
creators 皆さん、
私は自分のプロジェクト用にワークフローを開発し、ぜひ皆さんと共有したいと思います。このワークフローでは、新しいIP Adapterを使用して、複数の画像間をスムーズにアニメーション化し、GPUや動画の長さに応じて3〜15分でレンダリングが完了します。これはLive Portrait用の動画作成に最適です。
ズームイン/アウトの効果を実現するには、同梱のPhotoshopスクリプト、または画像のトリミングを支援する小さなアプリとして機能するPythonスクリプトを使用できます。このスクリプトはとても楽しく役立つもので、Photoshopの必要性をなくしてくれます。両方の使い方をガイドする動画チュートリアルも用意されています。
使用する前に、YouTube動画をご覧ください。重要な詳細が記載されています。
以下は、このワークフローで使用しているリソースです。
ControlNetチェックポイント: こちらからダウンロード
LoRAモデル(Google Driveリンク): こちらからダウンロード
Animate Diff LCMモデル: こちらからダウンロード(Google Driveリンクにも含まれています)
これらのリソースを使用することで、同様の結果を得られます。よりリアルな仕上がりを目指す場合は、このチェックポイントの使用を推奨します。一方、セミリアルまたはトゥーン風の効果を求める場合は、このモデルが非常に優れています。
詳細なワークフローの手順や重要な設定・注意点については、私のYouTube動画をご覧ください。
その他の注意点:
プロンプトの設定は結果に大きく影響します。動画全体で一貫性を保つには、プロンプトを元の画像にできるだけ合わせるか、「Headshot photo, female, [髪の色], [背景色]」などのシンプルなプロンプトを使用してください。異なる効果を試すには、さまざまなプロンプトを活用しましょう。明確に異なる画像間をモーフィングする際には、「HD」や「4K」といった用語を使用すると、最良の結果が得られます。
更新:
YouTube動画では「Alternate batches」を使用していますが、これは誤りです。必ずipadapterで「Full batch」を使用してください。「Alternate」は画像をスキップします。
