Outdated Consistency V3 Checkpoint [FLUX.1D]
詳細
ファイルをダウンロード
モデル説明
これは古いモデルです。最新のConsistency Simulacrumをご利用ください。
このモデルが行うすべてのことを、Consistency-V3-Flux-D1で実現できます。/model/477291/consistency-v3-flux-d1
これはFlux1 DevとConsistency-V3-Flux-D1のマージモデルです。CLIPはLoRAでトレーニングされていないため、実際には必要ありません。
強度:0.8 << やや高いかもしれません
機能性:
初心者向けに、VRAM使用量が通常16GB未満になるように設計した便利なマージモデルを用意しましたが、状況によっては16〜20GBになることもあります。
FP8 T5+VAEにはT5エンコーダーが組み込まれています。これとマージすると、COMFYUI上でより速く、より効率的に動作しますが、Forgeでの動作状況については現在把握していません。
上級者向け:
スタイル、コンセプト、個人的なポーズ制御のみを必要としている方、または独自のシステムと組み合わせて使用したい方は、単独のLoRAのみをダウンロードしてください。
FP8 noclipsには組み込みCLIPが含まれていません。独自のカスタムCLIPをダウンロードまたは実行する予定の場合は、このバージョンをご利用ください。
その他の注意点:
個別システムでテストしてきたLoRAは、文脈認識に欠ける傾向があり、高精度な個別Consistencyを使用するタイミングと場所は確かに存在します。
完全マージ版はロードが速く、生成も速く、VRAM消費量も少なく、核心的な詳細と情報を維持しています。アップロードに非常に時間がかかったため、ぜひご活用ください。
今日、GGUFの再検討を始めます。以前試した際、サブシステムとコアシステムの実装に多くの困難を経験しました。これらは私の専門分野ではありません。
現時点では、GGUFを単純に実行するのは容易ではありません。多くのエッジケースや問題が存在するため、現在のシステムはGGUFの純粋な有用性を無視しています。しかし、将来的にはQ2、Q4_0、Q4_K_M、Q6、Q8の実装を準備し、誰もがConsistencyのバージョンを利用できるようにする予定です。









