ComfyUI_INTEL_LOWVRAM_WAN2.2_ADD_AUDIO
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
MMAUDIOを使用してこのテストワークフローを作成しました。Comfy Managerで見つけることができます。
以下に、必要なモデル、VAE、その他のすべてを記載します。
https://huggingface.co/Kijai/MMAudio_safetensors/tree/main
念のため、GitHubも以下に掲載します。
https://github.com/kijai/ComfyUI-MMAudio/tree/main/mmaudio
これは新しい実験段階のため、予期しない動作が発生する可能性があります。
NVIDIA以外の環境を使用している場合、以下の2つの重要な操作を必ず行ってください。
私はいくつかの変更を加えることで、このワークフローを動作させることができました。Intel Arc B580を使用しているため、CUDAは利用できません。
CPUで使用できるように、2つのファイルを修正しました。ComfyUI\custom_nodes\comfyui-mmaudio\nodes.py の77行目と78行目を以下のように変更しました。
clip_frames = torch.stack([clip_transform(frame.cpu()).to("cpu") for frame in clip_frames])
sync_frames = torch.stack([sync_transform(frame.cpu()).to("cpu") for frame in sync_frames])
ComfyUI\custom_nodes\comfyui-mmaudio\mmaudio\ext\autoencoder\vae.py では、cudaと記述されている4か所をすべてcpuに変更しました。
私はテストで動作することを確認しましたが、長時間の動画を生成していないため、どれほど効果的かは不明です。

