PixelWave
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
PixelWave FLUX.1-schnell 04 - Apache 2.0!
Safetensor ファイル: 💾BF16 💾FP8 💾bnb FP4
GGUF ファイル: 💾Q8_0 🤗Q6_K 💾Q4_K_M
モデルは以下でも利用可能: RunDiffusion および Runware.ai
PixelWave FLUX.1 schnell version 04 は、FLUX.1-schnell の美学的な微調整版です。トレーニングに使用した画像は、目を引くような画像、美しい色、質感、照明を特徴とするように手動で選別されています。
オリジナルのschnellモデルを基にトレーニングされているため、Apache 2.0 ライセンス適用!
特別な要件は必要ありません。FLUX LoRAs をサポートしています。
Euler Normal、8ステップ。
より細部を向上させるにはステップ数を増やせますが、8ステップ以降では出力に大きな変化は見られません。
RunDiffusion に感謝
RunDiffusion(Juggernautの共同開発者)は、このモデルのトレーニングを可能にした計算リソースを提供してくれました。モデルをデディスティルせずにschnellをトレーニングする方法を確立するには多くの実験が必要で、RunDiffusionのクラウドコンピューティングを利用できたことで、そのプロセスが格段に容易になりました。
このモデルのAPIアクセスが必要な方は、Runware.ai と提携しています。
現時点では、FLUX.1-dev 04バージョンをRunDiffusionおよびRunwareに限定して提供しています。今後のバージョン05公開時に、dev 04のオープンウェイトを公開する予定です。
このモデルの実現にご協力いただき、心より感謝申し上げます。ぜひチェックしてください!
トレーニング
トレーニングはkohya_ss/sd-scriptsを使用して行いました。私のKohyaフォークはこちら → こちら。このリポジトリにはsd-scriptsサブモジュールの変更も含まれているため、両方をクローンしてください。
ファインチューニングタブを使用してください。私は4090 GPU(24GB)で動作する「pagedlion8bit」オプティマイザーで最も良い結果を得られました。他のオプティマイザーは学習がうまく進みませんでした。
time_in、vector_in、mod/modulation パラメータは固定しました。これにより「デディスティル」を防止できます。
15以上のブロックをトレーニングしないようにしています。FLUXセクションでトレーニングするブロックを指定できます。
LR 5e-6 は学習が速いですが、数千ステップ後にはブロックの劣化が発生し、学習が遅くなります。
その場合、以前のチェックポイントとブロックマージして劣化したブロックを置き換え、さらにトレーニングを継続できます。
劣化したブロックの兆候:ほとんどの画像に紙の質感が現れ、背景のディテールが失われる。
お問い合わせ
ビジネスまたは商用のお問い合わせは、[email protected] までお気軽にお問い合わせください。FLUXのファインチューニングのライセンス提供、顧客トレーニングプロジェクト、商用AI開発など、チームはすべて対応可能です!
PixelWave Flux.1-dev 03 ファインチューニング済み!
Safetensor ファイル: 💾BF16 💾FP8 💾NF4
GGUF ファイル: 💾Q8_0 🤗Q6_K 💾Q4_K_M
「diffusers」ファイルは実際にはQ8_0およびQ4_K_MのGGUFバージョンです。GGUFファイルはHuggingFaceでも入手可能。
私は4090 GPUで5週間以上、ベースのFLUX.1-devをファインチューニングしました。このモデルは異なるアートスタイル、写真、アニメに対応可能です。LoRAsの効果を高めるためのトリックはこちら。
展示画像にはdpmpp 2m sgm uniform、30ステップを使用しました。より洗練されたクリーンな出力が欲しい場合は、ガイドance値を上げてみてください。また、スタイルを明示すると、モデルが推測する必要がなくなります。
さらに、アップスケール潜在変数ノードを使用し、潜在変数を1.5倍にスケーリングすることをお勧めします。例:1024x1024ではなく、1536x1536の画像を生成する。
PixelWave Flux.1-schnell 03
GGUF ファイル: HuggingFaceへ移動
展示画像にはdpmpp 2m sgm uniform、8ステップを使用しました。
4ステップから始めることもできますが、解剖学的なエラーを減らすにはより多くのステップを使用することをお勧めします。
PixelWave Flux.1-dev 02
GGUF ファイル: 💾Q8_0 🤗Q6_K 💾Q4_K_M
バージョン02は、黒や暗い画像の品質が大幅に向上し、手の描写の問題がより少なくなりました。
dpmpp_2s_ancestral、beta、14ステップ、またはeuler、simple、20ステップの使用をお勧めします。
PixelWave 11 SDXL. 一般用途のファインチューニングモデル。アートと写真スタイルに最適です。
私は20ステップ、DPM++ SDE、CFG 4〜6、または40ステップ、2M SDE Karrasを使用しています。
高速化バージョン - 5ステップ以上、DPM++ SDE Karras、CFG 2.5
PAGをお勧めします⚡1.5スケール、CFG 3 を推奨。ワークフローのリンク
⭐プロンプトガイドへのリンク⭐ 「4K」「8K」「傑作」「高解像度」「高品質」などの品質表現は、必要に応じて使用してください。自然な見た目を望む場合は、「鮮やか」「濃厚」「明るい」「高コントラスト」「ネオン」「ドラマチック」などの言葉は避けることをお勧めします。これらの言葉は、CLIPがプロンプトに従って画像を「過剰に調整」してしまう原因になりますが、単にプロンプトに従っているだけです 🙂。逆に、鮮やかでネオン調の写真が欲しい場合は、PixelWaveが完璧に提供します!
バージョン10の焦点は、CLIPモデルのトレーニングにあり、これにより出力の信頼性が向上し、多様なスタイルを安定して生成できるようになり、プロンプトへの忠実度が高まりました。
テストに協力してくれた友人に感謝します:masslevel、blink、socalguitarist、klinter、wizard whitebeard。
ガイド:LM StudioとMikey Nodesを使用したアップスケールプロンプト
リファイナーモデルは不要です。
このモデルは他のモデルのミックスではありません。
また、Mikey Nodesも作成しました。多くの有用なノードが含まれており、Comfy Manager経由でインストールできます。




















