alimama-creative / FLUX.1-Turbo-Alpha

詳細

ファイルをダウンロード

モデル説明

中国語版Readme

このリポジトリは、AlimamaCreativeチームがリリースしたFLUX.1-devモデル向けの8ステップ蒸留LoRAを提供します。

説明

このチェックポイントは、FLUX.1-devモデルを基に訓練された8ステップ蒸留LoRAです。マルチヘッド識別器を使用して蒸留品質を向上させました。本モデルはT2I、インペインティングControlNet、およびその他のFLUX関連モデルに使用できます。推奨されるguidance_scale=3.5lora_scale=1です。よりステップ数が少ないバージョンは後ほどリリース予定です。

  • テキストから画像生成(Text-to-Image)

使用方法

diffusers

このモデルはdiffusersを直接使用して利用できます。

import torch
from diffusers.pipelines import FluxPipeline

model_id = "black-forest-labs/FLUX.1-dev"
adapter_id = "alimama-creative/FLUX.1-Turbo-Alpha"

pipe = FluxPipeline.from_pretrained(
  model_id,
  torch_dtype=torch.bfloat16
)
pipe.to("cuda")

pipe.load_lora_weights(adapter_id)
pipe.fuse_lora()

prompt = "A DSLR photo of a shiny VW van that has a cityscape painted on it. A smiling sloth stands on grass in front of the van and is wearing a leather jacket, a cowboy hat, a kilt and a bowtie. The sloth is holding a quarterstaff and a big book."
image = pipe(
            prompt=prompt,
            guidance_scale=3.5,
            height=1024,
            width=1024,
            num_inference_steps=8,
            max_sequence_length=512).images[0]

ComfyUI

学習詳細

本モデルは、美観スコア6.3以上、解像度800以上の100万枚のオープンソースおよび内部画像を用いて訓練しました。品質向上のため、アドバーサリアル学習を採用しています。手法では、オリジナルのFLUX.1-dev Transformerを識別器のバックボーンとして固定し、各Transformer層にマルチヘッドを追加しています。訓練中はguidance scaleを3.5に固定し、time shiftを3としています。

混合精度:bf16

学習率:2e-5

バッチサイズ:64

画像サイズ:1024x1024

このモデルで生成された画像

画像が見つかりません。