(flux1 bnb nf4) SimpleworkFlow

세부 정보

파일 다운로드

모델 설명

NF4는 원래의 bnb.matmul_4bit을 사용하여 캐스팅을 피하고 저비트 CUDA 트릭을 활용하기 때문에 FP8보다 훨씬 빠르고 메모리 효율적입니다. NF4는 FP8의 단일 텐서 접근 방식과 달리 가중치를 다양한 정밀도를 가진 여러 텐서에 저장함으로써 더 나은 수치 정밀도와 동적 범위를 달성합니다.

모든 (NF4) 모델 목록 (현재 LoRA는 지원되지 않음)

https://huggingface.co/silveroxides/flux1-nf4-weights/tree/main

해야 할 일은 단지

ComfyUI/custom_nodes/로 이동한 후

(체크포인트 전체용)

https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4

  • git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4

또는 UNet 전용만 필요한 경우

  • git clone https://github.com/DenkingOfficial/ComfyUI_UNet_bitsandbytes_NF4.git

그런 다음 이 워크플로우를 ComfyUI에서 실행하세요

"더 고급" 워크플로우 "체크포인트를 비활성화하고 NF4 체크포인트 로더를 활성화하세요"

플럭스 해상도 사용 시

커스텀 노드에서 이를 사용하거나 비활성화하세요

https://github.com/al-swaiti/ComfyUI-OllamaGemini

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.