입력 이미지는 pdxl 모델로 생성하지만, 원하는 t2i 모델을 사용하셔도 됩니다. 저는 창의성을 극대화하기 위해 v-prediction을 사용하며, t2i에 가장 좋아하는 노이즈 체인을 적용하고 있습니다: 1단계 fe_heun3, 1단계 SamplerSonarDPMPPSDE(student-t), 2단계 lcm(uniform). 첫 번째 단계를 더 향상시키려면, 따로 놓여 있는 SamplerDPMAdaptative 노드를 사용할 수 있습니다. 이 노드는 빠른 처리를 위해 최적화되었지만, 자유롭게 조정해 보세요. 두 번째 단계에서는 더 부드러운 결과를 얻기 위해 lcm(uniform)을 더 길게 연장하거나, SamplerRES_Momentumized(highress-pyramid)를 추가한 후 2단계의 lcm(uniform)으로 마무리할 수 있습니다. 두 번째 단계에 ClownSampler 노드를 사용하면 다른 결과를 얻을 수 있습니다. lcm(uniform)을 ClownSampler로 대체해도 되지만, 저는 lcm(uniform)이 만들어내는 결과를 매우 좋아합니다. 이제 LTX 비디오에 대해서는 샘플러 체인이 필요하지 않지만, 모델의 최고 성능을 얻으려면 실험이 가장 좋은 방법입니다. 또한 CFG는 움직임, 일관성, 아티팩트를 조절하므로, 생성 과정의 각 1/3에 대해 다른 CFG 값을 실험해 볼 수 있습니다. 이것이 시그마를 나누는 또 다른 이유이기도 하며, 이는 생성 품질을 크게 향상시킵니다.