(flux1 bnb nf4) SimpleworkFlow
세부 정보
파일 다운로드
모델 설명
NF4는 원래의 bnb.matmul_4bit을 사용하여 캐스팅을 피하고 저비트 CUDA 트릭을 활용하기 때문에 FP8보다 훨씬 빠르고 메모리 효율적입니다. NF4는 FP8의 단일 텐서 접근 방식과 달리 가중치를 다양한 정밀도를 가진 여러 텐서에 저장함으로써 더 나은 수치 정밀도와 동적 범위를 달성합니다.
모든 (NF4) 모델 목록 (현재 LoRA는 지원되지 않음)
https://huggingface.co/silveroxides/flux1-nf4-weights/tree/main
해야 할 일은 단지
ComfyUI/custom_nodes/로 이동한 후
(체크포인트 전체용)
https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
또는 UNet 전용만 필요한 경우
git clone https://github.com/DenkingOfficial/ComfyUI_UNet_bitsandbytes_NF4.git
그런 다음 이 워크플로우를 ComfyUI에서 실행하세요
"더 고급" 워크플로우 "체크포인트를 비활성화하고 NF4 체크포인트 로더를 활성화하세요"
플럭스 해상도 사용 시
커스텀 노드에서 이를 사용하거나 비활성화하세요

