Z-ImageTurbo ❌ VISIONARY bf16/fp16/fp8
詳細
ファイルをダウンロード
モデル説明
初回リリース – バージョン 0.1
これは私の最初の Z-ImageTurbo(チェックポイント LoRA マージ)リリースであり、まだ初期バージョン(V0.1)です。
• bf16/fp8/fp16 ディフュージョンモデル
• CLIP および VAE は含まれていません(必要であればお気軽にお問い合わせください)
• 推奨設定:CFG 1、8 ステップ(最大15)
• サンプラー:Euler A、スケジューラ:Simple または Beta(Beta を強く推奨)
• サンプル画像はアップスケールされておらず、Hi-Res Fix も使用していません
• 原始 ComfyUI モデル:https://huggingface.co/Comfy-Org/z_image_turbo/tree/main/split_files(ここで CLIP と VAE を見つけることができます)
私はまだ学習中であり、改善を続けています。今後のアップデートを予定しています。フィードバックを心よりお待ちしています!
目安ルール
NVIDIA Turing(RTX 20シリーズ)
→ ❌ 実際の BF16 サポートなし、FP16 が実用的な選択肢
→ 品質:通常問題ありませんが、新しいフォーマットよりもやや不安定NVIDIA Ampere(RTX 30シリーズ)
→ ✅ BF16 は良好に動作(問題が発生した場合は PyTorch/CUDA を更新するか、fp16 を使用してください)
→ 品質:一般にFP32 に非常に近い、顕著な品質損失はほとんどなしNVIDIA Ada Lovelace(RTX 40シリーズ)
→ ✅ BF16 は安定、FP8 はソフトウェア経由で部分的に可能
→ 品質:BF16 ≈ FP32;FP8 はワークロードによって顕著な品質低下が見られる可能性ありNVIDIA Blackwell(RTX 50シリーズ、例:5090)
→ ✅ BF16 は非常に安定、FP8 はより良好にサポートされていますが、魔法ではありません
→ 品質:FP8 は使用可能ですが、多くの場合ある程度の品質損失が生じます…大きくはありませんが、実在しますFP32:Z-Image によりまだリリースされていません




















