Shuttle 3.1 Aesthetic

詳細

ファイルをダウンロード

モデル説明

Shuttle 3.1 Aesthetic

最新のアップデート、ニュースなどを得るには、私たちの[Discord](https://discord.gg/shuttleai)に参加してください。

モデルのバリエーション

これらのモデルバリエーションは、さまざまなハードウェアの能力や使用ケースに最適化された精度レベルとフォーマットを提供します。

- [bfloat16](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/resolve/main/shuttle-3.1-aesthetic.safetensors)

- [fp8](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/resolve/main/fp8/shuttle-3.1-aesthetic-fp8.safetensors)

- GGUF(まもなく対応予定)

Shuttle 3.1 Aestheticは、テキストプロンプトから4〜6ステップで詳細で美的な画像を生成することを目的としたテキストから画像へのAIモデルです。画像品質、タイポグラフィ、複雑なプロンプトの理解、リソース効率において性能が向上しています。

image/png

モデルは、https://designer.shuttleai.com/ のウェブサイトからお試しできます。

APIを介したモデルの利用

ShuttleAIを通じて、APIでShuttle 3.1 Aestheticを利用できます。

- [ShuttleAI](https://shuttleai.com/)

- [ShuttleAIドキュメント](https://docs.shuttleai.com/)

🧨 Diffusersを介したモデルの利用

diffusersをインストールまたはアップグレードします。

pip install -U diffusers

その後、DiffusionPipelineを使用してモデルを実行できます。

import torch
from diffusers import DiffusionPipeline

# bfloat16をテンソル型として使用して、事前学習済みモデルから拡散パイプラインを読み込みます。
pipe = DiffusionPipeline.from_pretrained(
    "shuttleai/shuttle-3.1-aesthetic", torch_dtype=torch.bfloat16
).to("cuda")

# 必要に応じて、モデルをCPUにオフロードしてVRAMを節約するには、以下の行のコメントを解除してください。
# pipe.enable_model_cpu_offload()

# 互換性のあるGPU上でパフォーマンスを向上させるためにtorch.compileを有効にするには、以下の行のコメントを解除してください。
# ただし、読み込み時間が大幅に長くなる可能性があります。
# [pipe.transformer.to](http://pipe.transformer.to)(memory_format=torch.channels_last)
# pipe.transformer = torch.compile(
# pipe.transformer, mode="max-autotune", fullgraph=True
# )

# 画像生成用のプロンプトを設定します。
prompt = "A cat holding a sign that says hello world"

# 拡散パイプラインを使用して画像を生成します。
image = pipe(
    prompt,
    height=1024,
    width=1024,
    guidance_scale=3.5,
    num_inference_steps=4,
    max_sequence_length=256,
    # 再現可能な結果を得るために以下の行のコメントを解除してマニュアルシードを使用してください。
    # generator=torch.Generator("cpu").manual_seed(0)
).images[0]

# 生成された画像を保存します。
image.save("shuttle.png")

詳細については、[diffusers](https://huggingface.co/docs/diffusers/main/en/api/pipelines/flux)のドキュメントをご覧ください。

ComfyUIを介したモデルの利用

[ComfyUI](https://github.com/comfyanonymous/ComfyUI)を使用してShuttle 3.1 Aestheticをローカルで推論させるには、この[safetensorsファイル](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/blob/main/shuttle-3.1-aesthetic.safetensors)をご使用ください。

学習の詳細

Shuttle 3.1 AestheticはShuttle 3 Diffusionをベースとしています。4ステップでFlux Devと同様の画像を生成でき、ライセンスはApache 2です。学習中に部分的にデディスティルが行われました。Schnellシリーズモデルの制限を、特別な学習手法により克服し、ディテールと色の品質を向上させています。

このモデルで生成された画像

画像が見つかりません。