ComfyUI beginner friendly Flux.2 Klein 4B GGUF Text-to-Image Workflow by Sarcastic TOFU

세부 정보

모델 설명

이것은 단일 Flux.2 Klein 4B GGUF 모델과 함께 작동하는 매우 간단하고 ComfyUI 초보자 친화적인 텍스트-이미지 워크플로우입니다. 저는 8GB AMD GPU에 잘 작동하는 Q8 모델을 사용했습니다. 그러나 더 강력한 GPU를 보유하고 있다면, 전체 비양자화된 Flux.2 Klein 4B 모델로 쉽게 교체할 수 있고, 반대로 더 약한 GPU를 사용하고 있다면, 여기에서 다른 저사양 하드웨어 지원 GGUF 모델을 찾을 수 있습니다(unsloth의 Flux.2 Klein 4B GGUF 모델 HuggingFace 저장소 - https://huggingface.co/unsloth/FLUX.2-klein-4B-GGUF/tree/main) 및 기타 관련 리소스.

Flux.2 Klein 4B 및 9B 모델은 "정제된 흐름(rectified flow)" 아키텍처를 사용하여 이미지 생성과 프로페셔널급 편집을 하나의 간결한 패키지로 통합한 새로운 고속 AI 이미지 생성기 시리즈입니다. 이 모델들은 이전 버전보다 훨씬 빠르며, "단계 증류(step-distillation)" 기술을 사용하여 고품질 이미지를 단 4단계만으로 생성하고, 현대 하드웨어에서는 초단위 속도를 달성합니다. 이는 이전 모델들이 수십 단계를 필요로 했던 것과 대조적입니다. 4B 버전은 개인 및 상업적 용도 모두에 대해 관대한 Apache 2.0 라이선스로 배포되며, 더 강력한 9B 버전은 연구 및 개인 프로젝트용으로 비상업 라이선스를 사용합니다. 두 모델 모두 1:1 정사각형부터 21:9 초광각 및 9:21 수직까지 총 11개의 네이티브 비율을 지원하며, 최대 4메가픽셀(예: 2048x2048)까지 선명한 이미지를 생성할 수 있습니다. 더 접근하기 쉽게 하기 위해 FP8(8비트) 및 NVFP4(4비트)와 같은 Q(양자화) 모델이 제공되며, 이는 모델의 "두뇌 크기"를 줄여 메모리를 절약합니다. 구체적으로 FP8 버전은 약 1.6배 빠르고 VRAM을 40% 절약하며, NVFP4 버전은 최대 2.7배 빠르고 VRAM을 55% 절약합니다. 이러한 최적화 덕분에 4B 모델은 최소 8GB~12GB VRAM을 가진 시스템에서 실행 가능하며, 가장 낮은 사양의 Flux.2 Klein 4B Q2 또는 Q3 GGUF 버전을 사용하면 6GB, 4GB, 2GB VRAM을 가진 매우 저사양 GPU 또는 최신 노트북이나 미니 PC 칩의 통합 그래픽(iGPU)에서도 작동할 수 있습니다.

필요한 파일을 다운로드하려면 Hugging Face 계정이 필요합니다(세부사항은 아래에 명시되어 있습니다). ComfyUI 매니저를 사용하여 GGUF 애드온 및 기타 누락된 노드를 설치하고, 파일을 올바른 위치에 배치해야 합니다. 또한 SD 1.5 + SDXL 1.0, WAN 2.1, WAN 2.2, MagicWAN Image v2, QWEN, HunyuanImage-2.1, HiDream, KREA, Chroma, AuraFlow, Z-Image Turbo 및 Flux를 위한 다른 워크플로우도 확인해 보세요. 좋아하는 작업물에는 자유롭게 노란 버즈를 던져주세요.

사용 방법 -

#1. 먼저 원하는 Flux.2 Klein 4B GGUF 모델(또는 전체 모델로 교체)을 선택하세요.

#2. 시작할 이미지 치수를 설정하세요.

#3. 긍정적 및 부정적 프롬프트를 입력하세요.

#4. 생성할 이미지 수를 선택하세요(“Run” 버튼 옆 숫자를 변경하세요).

#5. 이미지 샘플링 방법, CFG, 단계 등 설정을 선택하세요.

#6. 마지막으로 Run 버튼을 눌러 생성하세요. 끝입니다.

** 이 워크플로우에서 LORA 사용은 선택 사항입니다. LORA 없이 사용할 수 있으며, 1개, 2개 또는 그 이상의 LORA를 사용할 수 있습니다. 새로운 LORA를 추가하려면 상단의 L 버튼을 클릭하여 LORA 매니저를 새 탭에서 실행하고 원하는 LORA를 찾은 후, 사용하려면 위로 향하는 연날개 버튼을 클릭하세요.

필요한 파일

==================

Flux.2 Klein 4B 모델 -

-----------------------

### 사용된 Flux.2 Klein 4B GGUF 모델 다운로드 링크

------------------------------------------------------

https://huggingface.co/unsloth/FLUX.2-klein-4B-GGUF/resolve/main/flux-2-klein-4b-Q8_0.gguf

### 사용된 Flux.2 Klein 4B 텍스트 인코더 다운로드 링크

--------------------------------------------------------

https://huggingface.co/Comfy-Org/flux2-klein-4B/resolve/main/split_files/text_encoders/qwen_3_4b.safetensors

### 사용된 Flux.2 Klein 4B VAE 다운로드 링크

-----------------------------------------------

https://huggingface.co/Comfy-Org/flux2-dev/resolve/main/split_files/vae/flux2-vae.safetensors

사용된 LORA(첫 번째 예제 이미지에만 사용) -

Flux 2 Klein용 96yottea 스타일

--------------------------------

/model/2318188/96yottea-style-for-flux-2-klein

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.