Super Simple GGUF (Quantized) Flux LoRA Workflow
詳細
ファイルをダウンロード
モデル説明
VRAMがFluxに不足している場合、量子化バージョンを実行する必要があります。これは、LoRAの読み込みとアップスケールを含む、非常にシンプルなワークフローです。量子化バージョンは、通常のバージョンよりもやや高い強度値を必要であることに注意してください。
このワークフローは、ComfyUIのGGUFモデルローダーに基づいています:
https://github.com/city96/ComfyUI-GGUF。
更新:
「Simple」バージョンを追加しました。このバージョンでは、2つのカスタムノードのインストールが必要です。主な違いは以下の通りです:
rgthreeのLoRAスタッカーを用いたマルチLoRAサポートを追加しました。これは、低性能のグラフィックカード向けに私が見つけた最良の選択肢です。
必要なサポートノードを備えたCivit-AI対応ファイルセーバーを追加しました。
すべての要素をグループ化して整理しました。
依然として非常に使いやすく、より複雑なワークフローの出発点としても優れています。複雑な操作を行っても、生成情報がCivitに保存されます。

