実験的なMochi
Mochiは最新のComfyUIバージョンでネイティブに対応しています。git pullまたはアップデートしてください。
サンプラー:
各ステップで異なるサンプラーの長所を活かすために、複数のサンプラーをチェーンで繋ぐことを推奨します。順序は重要です。私は成功率のために1ステップのdpm_adaptiveから始め、創造性のために1ステップのsonardpmpp(student-t)を経て、最後に3ステップのipndmと4ステップのddimで終えます。
私の例では、サンプラーのチェーンは以下の通りです:1ステップのdpm_adaptive > 1ステップのsonar_dpmpp_sde(student-t)> 1ステップのlcm > 2ステップのSamplerDynamicCFGpp > 4ステップのheun
5gen/3Dスタイルのビデオ用のサンプラー・チェーンは:2ステップのSamplerHeunCFGPP > 3ステップのidpm > 4ステップのddim
dpm_adaptive|fe_heun3|ae_dopri5(+Guide)
sonar_dpmpp_sde (student/pink|power/uniform)|dpmpp_dual_sde_momentumized| dpm_2_ancestral(+Color)
SamplerDPMCFGpp|heun_cfg_pp|distance_s4e1_cfg_pp|
SamplerCCCFGpp/SamplerDynamicCFGpp|SamplerHeunCFGPP|uni_pc
lcm
dpmpp_2m_sde/*_3m_*|*_gpu
tcd_w
ipndm/majority|heun
SamplerX0CFGpp
高速化のため、私は通常5ステップで生成し、良い結果を見つけたら、少なくとも9ステップで再生成します。
ノイズタイプ:
3Dノイズ(ピラミッド、パーシラン、フラクタル、ボロノイなど)またはラプラスは機能しません。
有効:uniform、power、pink、studentt
無効:green_test、gaussian
VAE:
メモリ不足が発生する可能性があります。Genmo Mochi用の小さなオートエンコーダーがリリースされるまで、"--cpu-vae"引数を使用して対応してください(ただし6倍時間がかかります)。または、「latent upscale by」を使用して高速出力を得ることもできます(ぼやけが発生します)。あるいは、潜在変数を保存して後でデコードすることも可能です。
CFG:
成功した生成のためには、CFGを1より大きくすることを推奨します。
良いサンプラー・チェーンを使えば、CFG=1でも良い画像を得られます。
スケジューラ:
「BetaSamplingScheduler」のアルファとベータパラメータをランダム化するために、プリミティブを使用し、お気に入りの設定を見つけ出すまで調整してください。
仕様:
私はNVIDIA GeForce GTX 1660 SUP、6GB VRAM(30**/40**シリーズの約10倍遅い)を使用しています。私がこれを使えるなら、あなたも使えるはずです。おそらく、良いグラフィックカードと十分なVRAMをお持ちなら、正しい解像度・長さ・VAEDecodeを使用できます。私は試していませんので、試行錯誤が必要です。VRAMが4GBの場合、長さと解像度を減らして試すことができますが、私のテストでは良い結果を得られませんでした。