Z-ImageTurbo ❌ VISIONARY bf16/fp16/fp8

詳細

ファイルをダウンロード

モデル説明

初回リリース – バージョン 0.1
これは私の最初の Z-ImageTurbo(チェックポイント LoRA マージ)リリースであり、まだ初期バージョン(V0.1)です。

bf16/fp8/fp16 ディフュージョンモデル
CLIP および VAE は含まれていません(必要であればお気軽にお問い合わせください)
• 推奨設定:CFG 18 ステップ(最大15)
• サンプラー:Euler A、スケジューラ:Simple または BetaBeta を強く推奨
• サンプル画像はアップスケールされておらずHi-Res Fix も使用していません
• 原始 ComfyUI モデル:https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files(ここで CLIP と VAE を見つけることができます)

私はまだ学習中であり、改善を続けています。今後のアップデートを予定しています。フィードバックを心よりお待ちしています!

目安ルール

  • NVIDIA Turing(RTX 20シリーズ)
    → ❌ 実際の BF16 サポートなし、FP16 が実用的な選択肢
    品質:通常問題ありませんが、新しいフォーマットよりもやや不安定

  • NVIDIA Ampere(RTX 30シリーズ)
    → ✅ BF16 は良好に動作(問題が発生した場合は PyTorch/CUDA を更新するか、fp16 を使用してください)
    品質:一般にFP32 に非常に近い、顕著な品質損失はほとんどなし

  • NVIDIA Ada Lovelace(RTX 40シリーズ)
    → ✅ BF16 は安定FP8 はソフトウェア経由で部分的に可能
    品質:BF16 ≈ FP32;FP8 はワークロードによって顕著な品質低下が見られる可能性あり

  • NVIDIA Blackwell(RTX 50シリーズ、例:5090)
    → ✅ BF16 は非常に安定FP8 はより良好にサポートされていますが、魔法ではありません
    品質FP8 は使用可能ですが、多くの場合ある程度の品質損失が生じます…大きくはありませんが、実在します

  • FP32:Z-Image によりまだリリースされていません

このモデルで生成された画像

画像が見つかりません。