실험적인 모치
모치는 최신 ComfyUI 버전에 내장되어 있습니다. git pull 또는 업데이트하세요.
샘플러:
각 단계에서 최고의 결과를 얻기 위해 다른 라인의 샘플러를 연쇄적으로 연결하는 것을 권장합니다. 순서가 중요하며, 저는 일반적으로 성공률을 위해 1단계 dpm_adaptive로 시작하고, 창의성을 위해 1단계 sonardpmpp(student-t)를 사용한 후, 3단계 ipndm과 4단계 ddim으로 마무리합니다.
제 예제에서 샘플러 체인은 1단계 dpm_adaptive > 1단계 sonar_dpmpp_sde(student-t) > 1단계 lcm > 2단계 SamplerDynamicCFGpp > 4단계 heun입니다.
5gen/3D 스타일 동영상의 샘플러 체인은 2단계 SamplerHeunCFGPP > 3단계 idpm > 4단계 ddim입니다.
dpm_adaptive|fe_heun3|ae_dopri5(+Guide)
sonar_dpmpp_sde(student/pink|power/uniform)|dpmpp_dual_sde_momentumized| dpm_2_ancestral(+Color)
SamplerDPMCFGpp|heun_cfg_pp|distance_s4e1_cfg_pp|
SamplerCCCFGpp/SamplerDynamicCFGpp|SamplerHeunCFGPP|uni_pc
lcm
dpmpp_2m_sde/3m|*_gpu
tcd_w
ipndm/majority|heun
SamplerX0CFGpp
속도를 높이기 위해 저는 일반적으로 5단계로 생성하고, 좋은 결과를 찾으면 최소 9단계로 다시 생성합니다.
노이즈 유형:
3D 노이즈(피라미드, 퍼블린, 프랙탈, 보로노이 등) 또는 라플라시안은 작동하지 않습니다.
작동하는 노이즈: uniform, power, pink, studentt
작동하지 않는 노이즈: green_test, gaussian
VAE:
메모리 부족 오류가 발생할 수 있습니다. Genmo Mochi용 미세한 오토인코더가 출시되기 전까지 "--cpu-vae" 인수를 사용하여 방지하되, 이 경우 6배 더 오래 걸립니다. 또는 "latent upscale by"를 사용하여 빠른 출력을 얻으세요(흐림이 예상됨). 또는 잠재 공간을 저장한 후 나중에 디코딩하세요.
CFG:
성공적인 생성을 위해 CFG를 1보다 크게 설정하는 것을 권장합니다.
좋은 샘플러 체인을 사용하면 CFG 1에서도 좋은 이미지를 얻을 수 있습니다.
스케줄러:
"BetaSamplingScheduler"의 알파 및 베타 파라미터를 무작위로 조정하기 위해 프리미티브를 사용하여 자신만의 최적 설정을 찾으세요.
사양:
저는 NVIDIA GeForce GTX 1660 SUP, 6GB VRAM을 사용합니다(30*/40* 시리즈보다 약 10배 느림). 제가 이 사양으로 사용할 수 있다면 여러분도 가능합니다. 좋은 그래픽카드와 VRAM을 보유하신 경우 적절한 해상도, 길이 및 VAEDecode를 사용하실 수 있을 것입니다. 저는 시도하지 않았기 때문에 실험이 필요합니다. 4GB VRAM을 보유하신 경우 길이와 해상도를 줄여 시도해 볼 수 있지만, 테스트 시 좋은 결과를 얻지 못했습니다.