Z-ImageTurbo ❌ VISIONARY bf16/fp16/fp8

세부 정보

파일 다운로드

모델 설명

**릴리즈 – 버전 0.2 (**GPU에 맞는 모델이 어떤 것인지 모르시나요? 아래 가이드를 참고하세요.)
새로운 점은 무엇인가요?
이 모델은 반실사 스타일로 발전하도록 설계되었기 때문에, 저는 이를 더 나아가 세부 사항을 추가했습니다. 또한, 다른 시드가 이 버전에서 더 나은 결과를 내기 때문에 의도적으로 새로운 샘플러로 전환했습니다. 일부 이미지도 교체되었습니다.
(피드백은 매우 환영합니다!)

노드:
이 모델은 체크포인트/LoRA 병합 모델입니다(저는 자신이 학습한 LoRA만 사용합니다). 따라서 고 에포크의 추가 LoRA를 사용할 경우 문제가 발생할 수 있습니다. 먼저 LoRA 강도를 약 0.3으로 시작한 후 점진적으로 증가시키세요.

고급 팁:
ModelSamplingAuraFlow 노드에서 3.00에서 3.10 사이의 값을 조정할 수 있습니다. 이는 손이 이상하게 나오거나 다른 반복적인 시각적 결함이 발생할 때 도움이 됩니다.

• bf16 디퓨전 모델 (곧 fp8/fp16 버전 출시 예정, 절실히 필요하시면 저에게 메시지 주세요 ^^)
• CLIP 및 VAE 포함되지 않음 (도움이 필요하면 문의하세요)
• 권장 설정: CFG 1, 8스텝 (최대 15)
• 샘플러: Euler A, 스케줄러: Simple 또는 Beta (Beta 추천)
• 샘플 이미지는 업스케일되지 않았으며 Hi-Res Fix 사용하지 않음

원본 ComfyUI 모델: 링크 (여기서 CLIP 및 VAE를 찾을 수 있습니다)


첫 릴리즈 – 버전 0.1
이것은 제 첫 번째 Z-ImageTurbo, 즉 체크포인트-LoRA 병합 릴리즈이므로 여전히 초기 버전(V0.1)입니다.

• bf16/fp8/fp16 디퓨전 모델
• CLIP 및 VAE 포함되지 않음 (도움이 필요하면 문의하세요)
• 권장 설정: CFG 1, 8스텝 (최대 15)
• 샘플러: Euler A, 스케줄러: Simple 또는 Beta (Beta 추천)
• 샘플 이미지는 업스케일되지 않았으며 Hi-Res Fix 사용하지 않음

원본 ComfyUI 모델: 링크 (여기서 CLIP 및 VAE를 찾을 수 있습니다)

저는 여전히 학습 중이며 개선 중이므로 향후 업데이트가 계획되어 있습니다. 피드백은 매우 환영합니다!

가이드라인

  • NVIDIA Turing (RTX 20시리즈)
    → ❌ bf16 지원 불가, fp16이 실용적인 선택
    품질: 보통 적절하지만, 최신 포맷보다 다소 취약함

  • NVIDIA Ampere (RTX 30시리즈)
    → ✅ bf16 잘 작동 (문제 발생 시 PyTorch/CUDA 업데이트 또는 fp16 사용 시도)
    품질: 일반적으로 fp32와 매우 유사, 눈에 띄는 손실 거의 없음

  • NVIDIA Ada Lovelace (RTX 40시리즈)
    → ✅ bf16 안정적, fp8은 소프트웨어를 통해 부분적 지원
    품질: bf16 ~ fp32; 작업량에 따라 fp8에서 눈에 띄는 품질 저하 발생 가능

  • NVIDIA Blackwell (RTX 50시리즈, 예: 5090)
    → ✅ bf16 매우 안정적, fp8 더 나은 지원 but 마법은 아님
    품질: fp8 사용 가능하지만 많은 경우 여전히 일정한 품질 손실 존재... 크지 않지만 실질적임

  • fp32: Z-Image에서 아직 릴리즈되지 않음

참고: fp8은 거의 모든 GPU에서 로드할 수 있으며 로딩 시 VRAM 사용량을 줄일 수 있습니다. 그러나 fp8 하드웨어 지원이 없는 경우, 연산을 위해 자동으로 fp16 또는 fp32로 변환됩니다. 원본 데이터가 이미 fp8로 양자화되었기 때문에, 이 과정에서 일부 품질 손실이 발생할 수 있으며, 실제 fp8 연산 속도 향상은 없고, 메모리 및 데이터 전송 이점만 존재합니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.