Base Set of Models for ONNX
詳細
ファイルをダウンロード
このバージョンについて
モデル説明
CivitaiにONNXモデルが存在しないため、この設定を試したいすべての人に向けてこれをアップロードします。
メインモデルは、どこから来たのか覚えていないマージモデルですが、SD1.5ベースのモデルです。
すべての画像は後からの編集なしで生成されています。ConanとRed Sonjaのみ、追加のステップ(キャラクターの独立生成、潜在変数の合算、顔の復元)を経て作成されています。Lora、テキスト逆転、その他の追加ツールは一切使用していません。
以下3つのバージョンをアップロードしました:
最適化されていない:VRAMをより多く消費しますが、モデルの読み込みが高速(10秒)です。テスト用におすすめ。例:640x640を4GBのGPUで実行。
メモリ最適化:VRAM消費が少なく、初期読み込み時間が長くなる(最大1分かかります)。例:4GBで1024x768まで問題なく実行可能。
潜在一貫性(Latent Consistency):ステップ数が少ない(6〜12)で、各ステップの処理時間が通常の40〜50%高速です。最適化されていないモデルよりやや多くのメモリを消費します。このモデルは「SimianLuo/LCM_Dreamshaper_v7」のfp16レプリカであり、独自のマージモデルではありません。
また、これらのモデルを試す場合は、私のUIをご確認ください:
https://github.com/NeusZimmer/ONNX-ModularUI-StableDiffusion/
フィードバックを大変歓迎します。
**LCM:論文の完全な説明に従ったモデルです。LCM-LORA重みを含むものはすでに動作していました。
SDのONNXは動作するためのディレクトリ構造を必要とするため、メインモデルをzipファイルとしてアップロードしましたが、Civitaiはそれらを「トレーニングデータ」としてのみマークできるため、これらがメインモデルです。
PD:SD1.xおよびSD2.xモデルで動作しますが、現時点ではSDXLモデルをONNX-fp16に変換できないため、SDXLには対応していません。
アップロード済み:
3xメインベースモデル
VAEエンコーダーおよびデコーダー
TextEncoder(clip-slip1)
アップロード予定(但しHuggingFaceで利用可能):ControlNetベースモデル、Danbooruタグ付け、TextEncoder(clip-slip2,3,4)


