ComfyUI_INTEL_LOWVRAM_WAN2.2_ADD_AUDIO

詳細

ファイルをダウンロード

モデル説明

MMAUDIOを使用してこのテストワークフローを作成しました。Comfy Managerで見つけることができます。

以下に、必要なモデル、VAE、その他のすべてを記載します。

https://huggingface.co/Kijai/MMAudio_safetensors/tree/main

念のため、GitHubも以下に掲載します。

https://github.com/kijai/ComfyUI-MMAudio/tree/main/mmaudio

これは新しい実験段階のため、予期しない動作が発生する可能性があります。

NVIDIA以外の環境を使用している場合、以下の2つの重要な操作を必ず行ってください。

私はいくつかの変更を加えることで、このワークフローを動作させることができました。Intel Arc B580を使用しているため、CUDAは利用できません。

CPUで使用できるように、2つのファイルを修正しました。ComfyUI\custom_nodes\comfyui-mmaudio\nodes.py の77行目と78行目を以下のように変更しました。

clip_frames = torch.stack([clip_transform(frame.cpu()).to("cpu") for frame in clip_frames])
sync_frames = torch.stack([sync_transform(frame.cpu()).to("cpu") for frame in sync_frames])

ComfyUI\custom_nodes\comfyui-mmaudio\mmaudio\ext\autoencoder\vae.py では、cudaと記述されている4か所をすべてcpuに変更しました。

私はテストで動作することを確認しましたが、長時間の動画を生成していないため、どれほど効果的かは不明です。

このモデルで生成された画像

画像が見つかりません。