2_steps_WAN2.2. i2i, upscale image, v2v, upscale video with t2v_low_noise_14b model

세부 정보

파일 다운로드

모델 설명

"civitai"는 소스가 실제 사진/비디오라는 이유로 내 최고의 예제들을 모두 삭제했습니다. 자신의 사진이나 타인의 사진을 사용하면 더 나은 결과를 얻을 수 있습니다.

이미지를 업스케일하려면 다음을 사용하세요:

DENOISE: 0.015-0.15. (프레임 내에서 객체가 멀리 있거나 작을수록 더 많이 변화합니다). 사람의 식별 가능성을 유지하려면 0.015-0.02를 사용하세요.

SAMPLER: 아티팩트와 세부 정보가 부족한 이미지에는 euler를, 더 나은 이미지에는 res_2s(RES4LYF 노드)를 사용하세요.

또한 두 개의 샘플러를 연속으로 연결할 수 있습니다: 먼저 euler, 그 다음 res_2s를 사용하세요.

i2i의 경우 어떤 denoise 강도도 사용할 수 있으며, 작은 이미지를 추가해 이미지를 생성할 수 있어 t2v_high_noise_14b 모델을 사용하지 않아도 되며, 이는 최대 14GB의 RAM/VRAM을 절약할 수 있습니다.

v2v의 경우 denoise가 너무 높으면 프레임 논리가 손실되어 "deforum"이 발생합니다.

불행히도 8GB의 VRAM 때문에 더 높은 해상도에서 테스트할 수 없습니다.

얼굴에 Lora를 학습하면 얼굴을 가리는 객체가 있어도 매우 고품질의 ROOP를 수행할 수 있습니다.

/model/1817671?modelVersionId=2057100 - t2v_low_noise_14b

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.