Optimised Hunyuan/Skyreels/Wan 2.1 GGUF I2V + Upscale (Hunyuan LORA Compatible) (3060 12GBVRAM + 32gbRAM)
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
문제가 발생하면 CivitAI/Discord에서 저에게 PM 주세요.
Hunyuan 720p I2V
1316.72s 73F 688x800 22step dpmpp_2m simple
Hunyuan720pI2V Q6_K gguf (필요에 따라 조정)
https://huggingface.co/city96/HunyuanVideo-I2V-gguf/tree/main
llava_llama3_vision
https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/blob/main/split_files/clip_vision/llava_llama3_vision.safetensors
clip_l (clip_hunyuan으로 이름 변경)
https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tree/main/split_files/text_encoders
hunyuan_video_vae_bf16
https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tree/main/split_files/vae
Python 버전 3.12.7, Cuda 12.6, Torch 2.6.0+cu126
Triton 윈도우용: https://github.com/woct0rdho/triton-windows/releases
사용 중인 Python 버전에 맞는 wheel 파일을 다운로드한 후, 명령 프롬프트를 열고 다운로드한 파일이 저장된 디렉터리로 이동한 다음 다음 명령을 실행하세요:
Python_embedded를 통해:
python.exe -m pip install triton-3.2.0-(파일명)
python.exe -m pip install sageattention==1.0.6
Wan2.1
562.51s 512x512 uni_pc simple 33F
12step 및 8step 분할이 정상적으로 작동합니다
81F 1018.89s!
81F 573.99s!
8step 분할 161F/10s (16fps) 512x512 uni_pc simple 6760.70초 소요됨 (하지만 작동함!) (메타데이터 내장 PNG 게시됨)
팁을 받았습니다. 생성물을 워크플로 갤러리에 게시하거나 자원을 게시물에 추가해 주세요. 즐겁게 사용하세요!
Wan2.1 I2V 업데이트 공개!
49F
512x512
12step(2단계 6+6)
Uni_pc
Simple
추가하는 LoRA마다 추론 시간이 약 +200-400초 증가하는 것 같습니다
33F 700-900s
49F 1000-1500s
Wan2.1 480p I2V /unet (필요에 따라 조정)
https://huggingface.co/city96/Wan2.1-I2V-14B-480P-gguf/blob/main/wan2.1-i2v-14b-480p-Q6_K.gguf
Clip vision /clip_vision
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/clip_vision/clip_vision_h.safetensors
Text encoder /clip 또는 /text_encoders
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors
(옵션) Upscale /upscale_models
https://huggingface.co/lokCX/4x-Ultrasharp/blob/main/4x-UltraSharp.pth
Skyreels
최종 베어본 + 텍스트 가중치 Hunyuan LoRA 호환성 업데이트 공개
831.61초 (Upscale 없음)
932.07초 (Upscale 없음)
쇼케이스에 비디오 게시됨
8GB VRAM 또는 그 이하에서도 작동할 가능성이 있습니다. UnetLoaderGGUFDisTorchMultiGPU 사용자 정의 노드의 virtual_vram_gb를 조정해 보세요 (충분한 RAM GB가 있다면).
Stage 1 415.369, Stage 2 315.937, VAE 70.838, 총 837.93초. Q6+6stepLORA+SmoothLORA+DollyLORA
(인물 중심이 아닌 경우, 항상 DPM++2M/Beta + Smooth LORA를 기본값으로 사용함, 평균 실행 시간: 700-900초, 73F, Upscale 없음)
Comfyui_MultiGPU = UnetLoaderGGUFDisTorchMultiGPU (이미지 잠재적 배치 4 flux-finetune Q8, txt2img 워크플로우의 gguf 로더 교체)
Comfyui_KJNodes = TorchCompileModelHyVideo, Patch Sage Attention KJ, Patch Model Patcher Order (노드 추가 > KJNodes > 실험적)
∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨
https://huggingface.co/spacepxl/skyreels-i2v-smooth-lora
∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧∧
필요에 따라 virtual_vram_gb를 조정하세요 (모델을 SamplerCustom에 로드한 후 Comfyui cmd에서 distorch 할당 값을 확인하는 것이 좋습니다) 또는 일반 Unet Loader(GGUF)와 skyreels-hunyuan-I2V-Q?를 사용하세요.
1차 로드
프롬프트 실행 시간: 1662.22초 - 업스케일에 소요된 587.365초 = 1075초
640x864
73프레임 (안정적/생성 시간)
스텝: 6-12 (1단계 6스텝 + 2단계 6스텝)
cfg: 4.0
샘플러: Euler
스케줄러: Simple
(기본 Kijai 워크플로우: https://huggingface.co/Kijai/SkyReels-V1-Hunyuan_comfy/blob/main/skyreels_hunyuan_I2V_native_example_01.json)
업스케일러가 포함된 베어본 I2V 워크플로우, 3060 12GB VRAM + 32GB RAM 기반 최적화
ComfyUI, Torch 및 CUDA를 최신 버전으로 업데이트했는지 확인하세요
업데이트 폴더에서 update_comfyui.bat를 실행하세요
python_embeded 폴더로 돌아가세요
상단의 파일 디렉터리 바를 클릭하고 cmd를 입력한 후 엔터를 누르세요
cmd에서 다음 명령을 입력하세요: "python.exe -m pip install --upgrade torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu126"
∨∨ 이전 워크플로우에 손상을 줄 수 있음 ∨∨
아직 작동하지 않는 경우 다른 update.bat를 실행하세요: update_comfyui_and_python_dependencies.bat
∧∧ 이전 워크플로우에 손상을 줄 수 있음 ∧∧
워크플로우 자원:
Fast_Hunyuan LoRA (models/lora): https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hyvideo_FastVideo_LoRA-fp8.safetensors
GGUF 모델 (필요에 따라 모델 교체) (models/unet):
https://huggingface.co/Kijai/SkyReels-V1-Hunyuan_comfy/blob/main/skyreels-hunyuan-I2V-Q6_K.gguf
VAE 모델 (models/vae): https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_vae_bf16.safetensors
Clip_l 모델 (clip_hunyuan으로 이름 변경) (models/clip):
llava_llama3 모델 (models/clip):
https://huggingface.co/calcuis/hunyuan-gguf/blob/main/llava_llama3_fp8_scaled.safetensors
업스케일 모델 (models/upscale_models):
https://huggingface.co/uwg/upscaler/blob/main/ESRGAN/4x-UltraSharp.pth
개인 생성 시간
1차 로드 후 기본 생성 시간 (2단계 + VAE 디코딩):
758.173초
704.589초
1차 로드 후 제안된 LoRA 적용 시:
779.494초
1차 로드 후 169F 테스트 (로드 없음):
OOM
1차 로드 후 6stepLORA + SmoothLORA 적용 121F 테스트 (로드 없음):
1단계
525.14s 1회 반복
729.66s 2회
736.19s 3회
645.15s 4회
665.55s 5회
764.12s 6회/평균
2단계
81.90s 1회+2회 반복
OOM
OOM 후 즉시 재시도 (2단계부터 시작)
6.17s 1회 반복
113.74s 2회+3회
222.92s 4회
327.62s 5회
282.29s 6회/평균
VAE 128.309s
97F I2V + 6stepLora 테스트 (갤러리에 게시됨, 아직 OOM 없음)
1123초
1013초
