Base Set of Models for ONNX

詳細

ファイルをダウンロード

モデル説明

CivitaiにONNXモデルが存在しないため、この設定を試したいすべての人に向けてこれをアップロードします。

メインモデルは、どこから来たのか覚えていないマージモデルですが、SD1.5ベースのモデルです。

すべての画像は後からの編集なしで生成されています。ConanとRed Sonjaのみ、追加のステップ(キャラクターの独立生成、潜在変数の合算、顔の復元)を経て作成されています。Lora、テキスト逆転、その他の追加ツールは一切使用していません。

以下3つのバージョンをアップロードしました:

  • 最適化されていない:VRAMをより多く消費しますが、モデルの読み込みが高速(10秒)です。テスト用におすすめ。例:640x640を4GBのGPUで実行。

  • メモリ最適化:VRAM消費が少なく、初期読み込み時間が長くなる(最大1分かかります)。例:4GBで1024x768まで問題なく実行可能。

  • 潜在一貫性(Latent Consistency):ステップ数が少ない(6〜12)で、各ステップの処理時間が通常の40〜50%高速です。最適化されていないモデルよりやや多くのメモリを消費します。このモデルは「SimianLuo/LCM_Dreamshaper_v7」のfp16レプリカであり、独自のマージモデルではありません。

また、これらのモデルを試す場合は、私のUIをご確認ください:

https://github.com/NeusZimmer/ONNX-ModularUI-StableDiffusion/

フィードバックを大変歓迎します。

**LCM:論文の完全な説明に従ったモデルです。LCM-LORA重みを含むものはすでに動作していました。

SDのONNXは動作するためのディレクトリ構造を必要とするため、メインモデルをzipファイルとしてアップロードしましたが、Civitaiはそれらを「トレーニングデータ」としてのみマークできるため、これらがメインモデルです。

PD:SD1.xおよびSD2.xモデルで動作しますが、現時点ではSDXLモデルをONNX-fp16に変換できないため、SDXLには対応していません。

アップロード済み:

3xメインベースモデル

VAEエンコーダーおよびデコーダー

TextEncoder(clip-slip1)

アップロード予定(但しHuggingFaceで利用可能):ControlNetベースモデル、Danbooruタグ付け、TextEncoder(clip-slip2,3,4)

このモデルで生成された画像

画像が見つかりません。