Wan2_2_Animate_14B_Q4_K_M.gguf
詳細
ファイルをダウンロード
モデル説明
HuggingFaceから転送
https://huggingface.co/Kijai/WanVideo_comfy_GGUF/tree/main/Wan22Animate
これはWan2.2-AnimateモデルのGGUF版です。ワークフローのサンプルはfp8版と同じであり、単に「Wan2_2-Animate-14B_fp8_e5m2_scaled_KJ.safetensors」モデルをこのGGUF版(ggufローダーを使用)に置き換えるだけです。
ワークフローサンプル: https://www.runninghub.ai/post/1969068684759212034
(このワークフローはKJのDiscordから提供されたもので、まだ実験段階であり完璧ではありませんが、ご自身で試すことは可能です。)
機能概要
Wan-Animateは、パフォーマーの動画に基づいて任意のキャラクターをアニメーション化し、パフォーマーの顔の表情や動きを正確に再現して、非常に現実的なキャラクター動画を生成できます。
Wan-Animateは、動画内のキャラクターをアニメーション化されたキャラクターに置き換えることができ、表情や動きを維持しながら、元の照明と色調を再現して、環境へのシームレスな統合を実現します。
概要
我々は、キャラクターのアニメーション化と置換を統合したフレームワーク「Wan-Animate」を紹介します。キャラクター画像と参照動画が与えられた場合、Wan-Animateは参照動画内のキャラクターの表情・動きを正確に再現して、高精細なキャラクター動画を生成できます。また、アニメーション化されたキャラクターを参照動画に統合して元のキャラクターを置き換え、シーンの照明と色調を再現することで、環境とのシームレスな統合を実現します。Wan-AnimateはWanモデルを基盤として構築されています。キャラクターアニメーションタスクに適応させるため、生成のための参照条件と領域を区別するための修正された入力パラダイムを採用しています。この設計により、複数のタスクを共通の記号的表現に統一しています。私たちは、空間的に整列されたスケルトン信号を使用して体の動きを再現し、ソース画像から抽出した陰的顔面部特徴を用いて表情を再現することで、高コントロール性と高表現性を持つキャラクター動画を生成します。さらに、キャラクター置換時の環境統合を強化するために、補助的なRelighting LoRAを開発しました。このモジュールは、キャラクターの外観の一貫性を維持しつつ、適切な環境照明と色調を適用します。実験結果は、Wan-Animateが最先端の性能を達成することを示しています。我々は、モデルの重みとソースコードをオープンソース化することを約束します。
