Joe's Adaptive Guidance GGUF FLUX.1-schnell Workflow
세부 정보
파일 다운로드
모델 설명
소개
적응형 가이던스 커스텀 노드를 발견한 후, 이는 샘플링 가이던스를 독특한 방식으로 조정하는 간단한 커스텀 노드입니다. 이 노드는 디스틸린 모델을 해제할 뿐만 아니라, 디스틸린 하이퍼 모델과 Schnell 모델에도 흥미로운 결과를 제공합니다. 저는 여전히 Apache 라이선스를 가진 Schnell 모델을 사랑하고 있으며, 이 작업에서 제가 하고 싶었던 것은 GGUF UNet과 GGUF 텍스트 인코더를 동시에 사용하는 매우 간단한 워크플로우를 만들어 공유하는 것이었습니다.
이전에 테스트한 다른 워크플로우들은 주로 다른 사람들이 배우는 데 도움이 되는 방향이었지만, 이 워크플로우는 제가 실제로 사람들이 이미지를 쉽게 생성하고 ComfyUI에 더 쉽게 입문할 수 있기를 바라는 첫 번째 공유 작업입니다. 저는 이미 Forge와 WebUI를 완전히 버렸습니다.
댓글을 남겨주세요.
이 워크플로우는 Windows 2022 및 Windows 11에서 4060Ti, 4080 Super, 4090 GPU로 테스트되었습니다.
LoRAs
LoRA와 함께 이 워크플로우를 테스트했으며, LoRA를 각각의 노드로 드래그하여 연결하거나 파워 LoRA 로더를 사용하는 것이 가장 좋습니다.
UNet 모델 Flux
UNET 폴더에 GGUF 모델이 필요합니다(최소 Q6 이상을 권장합니다).
권장 모델
Flux Fusion V2 GGUF (최상의 결과)
또는
GGUF 형식의 어떤 Schnell 베이스 또는 병합 모델도 가능
제공된 설정은 하이퍼 모델과 Schnell 모델 모두에서 작동하지만, Dev 모델과 디스틸린 모델에서는 작동하지 않습니다. 이 워크플로우는 Dev 및 디스틸린 모델과도 작동하도록 조정할 수 있지만, 이 작업의 목적은 그러한 조정이 아닙니다.
VAE
저는 공식 Schnell Hugging Face 페이지에서 제공하는 VAE를 사용하지만, AE 버전도 잘 작동합니다. 현재 Flux는 VAE 모델 간에 별다른 차이가 없습니다.
GGUF 텍스트 인코더
그리고 clip_l과 t5의 GGUF 버전이 필요합니다. Q6 또는 Q8을 권장합니다.
https://huggingface.co/city96/t5-v1_1-xxl-encoder-gguf
이 모델은 clip 로딩 및 오프로딩 속도를 향상시킵니다.
필요한 커스텀 노드:
어댑터 가이더는 여기에 있습니다.
https://github.com/asagi4/ComfyUI-Adaptive-Guidance
GGUF가 아직 없다면 여기에 있습니다. 이 노드는 텍스트 인코더와 UNet 모두에서 GGUF를 활성화합니다.
https://github.com/city96/ComfyUI-GGUF
비율 선택 Empty Image
비율 선택기를 사용했음을 확인하실 수 있습니다. 이 기능이 널리 채택되길 진심으로 바라지만, 커스텀 노드 없이도 16/9, 4/3, 3/5 등의 비율과 기본 메가픽셀을 입력하면 원하는 이미지를 생성할 수 있습니다.











