Multi Image To Video Workflow for ComfyUI

詳細

ファイルをダウンロード

モデル説明

creators 皆さん、

私は自分のプロジェクト用にワークフローを開発し、ぜひ皆さんと共有したいと思います。このワークフローでは、新しいIP Adapterを使用して、複数の画像間をスムーズにアニメーション化し、GPUや動画の長さに応じて3〜15分でレンダリングが完了します。これはLive Portrait用の動画作成に最適です。

ズームイン/アウトの効果を実現するには、同梱のPhotoshopスクリプト、または画像のトリミングを支援する小さなアプリとして機能するPythonスクリプトを使用できます。このスクリプトはとても楽しく役立つもので、Photoshopの必要性をなくしてくれます。両方の使い方をガイドする動画チュートリアルも用意されています。

使用する前に、YouTube動画をご覧ください。重要な詳細が記載されています。

以下は、このワークフローで使用しているリソースです。

これらのリソースを使用することで、同様の結果を得られます。よりリアルな仕上がりを目指す場合は、このチェックポイントの使用を推奨します。一方、セミリアルまたはトゥーン風の効果を求める場合は、このモデルが非常に優れています。

詳細なワークフローの手順や重要な設定・注意点については、私のYouTube動画をご覧ください。

その他の注意点:

プロンプトの設定は結果に大きく影響します。動画全体で一貫性を保つには、プロンプトを元の画像にできるだけ合わせるか、「Headshot photo, female, [髪の色], [背景色]」などのシンプルなプロンプトを使用してください。異なる効果を試すには、さまざまなプロンプトを活用しましょう。明確に異なる画像間をモーフィングする際には、「HD」や「4K」といった用語を使用すると、最良の結果が得られます。

更新:

YouTube動画では「Alternate batches」を使用していますが、これは誤りです。必ずipadapterで「Full batch」を使用してください。「Alternate」は画像をスキップします。

このモデルで生成された画像

画像が見つかりません。