Qwen Image Layered I2L Workflow with lightning 4 or 8 steps + Sageattention + GGUF + MultiGPU
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
내 TG 채널 - https://t.me/StefanFalkokAI
내 TG 채팅 - https://t.me/+y4R5JybDZcFjMjFi
워크플로우 테스트에 도움을 준 SD_Prompt_by_Art에게 감사합니다 - https://t.me/prompt_by_art
안녕하세요! Qwen Image Layered I2L을 사용한 제 작업 워크플로우를 소개합니다.
Qwen Image 모델과 함께 워크플로우를 포함했습니다.
Qwen Image 모델(https://huggingface.co/Comfy-Org/Qwen-Image-Layered_ComfyUI/tree/main/split_files/diffusion_models), clip(https://huggingface.co/Comfy-Org/Qwen-Image_ComfyUI/tree/main/split_files/text_encoders), 및 vae(https://huggingface.co/Comfy-Org/Qwen-Image-Layered_ComfyUI/tree/main/split_files/vae)를 필요로 합니다.
더 빠른 결과를 얻기 위해 4단계 또는 8단계 LoRA Qwen Image 사용을 권장합니다.
GGUF Qwen Image Layered - https://huggingface.co/QuantStack/Qwen-Image-Layered-GGUF/tree/main
모델이 느리며, 5080에서 각 반복에 10-15초가 소요됨을 알려드립니다. 이는 VRAM 또는 RAM 부족 때문이 아닙니다. 따라서 워크플로우에 가벼운 LoRA를 포함했습니다.
내 ComfyUI 빌드를 다운로드하세요: https://huggingface.co/datasets/StefanFalkok/ComfyUI_portable_torch_2.9.1_cu130_cp313_sageattention_triton, 또한 CUDA 13.0(https://developer.nvidia.com/cuda-13-0-0-download-archive) 및 VS Code(https://visualstudio.microsoft.com/downloads/)를 다운로드하고 설치해야 합니다.
워크플로우에 문제가 있거나 어려움이 있다면 댓글을 남겨주세요.





