[FLUX LoRA] 'Sloppy Toppy' [Messy/Sloppy/Nasty Deepthroat Blowjob LoRA] [ADD: 'slptp' TO PROMPT]
詳細
ファイルをダウンロード
モデル説明
「Sloppy Toppy」コンセプト Flux-dev1 LoRA!
これは、超汚くて不潔なオーラルセックスを再現するためのLoRAです。
もし「待って、それってどういう意味?」と思うなら、まず言いたいのは「こんにちは、インターネットへようこそ。ここは時々かなり変なので、しっかり座って準備してね」です。
そのあと、もしあなたが本当に18歳以上で、それが何を意味するのかまだ知らないなら、次のように説明します:
「男性が女性の頭を強く押さえつけて、彼女の顔が自分の骨盤に密着するまで押し込むような、過酷なフェイスファッキングオーラル。女性が自分の頬を広げながら、男性が可能な限り奥まで押し込むような、極限のディープスロート。唾液、よだれ、時には鼻水が大量に飛び散り、男性の睾丸と女性の顔中にべっとりと付いて、化粧が台無しになり、喉に詰まらせて嗚咽しながら流れた涙でべちゃべちゃに惨状になる。時として、目は血走っている。このLoRAはこれらすべてを再現できます。 注意してください。」
プロンプトに単に「slptp」と追加するだけです。または「slptp style blowjob」と書くだけで十分です。
このLoRAはFlux-dev1で学習しましたが、私が試したすべてのハイブリッドチェックポイント、およびVAE、clip-l、t5(テキスト・テキスト転送変換器)のテキストエンコーダーが組み込まれたAIO(オールインワン)Schnellモデルでも動作します。これらは20GB以上の巨大なモデルで、N4だけですが、元の-dev1の重みと同じファイルサイズです。
もちろん、Flux-dev1で最も効果的です。なぜなら、これはそれ用に学習されたからです。
データセットは手作業でタグ付けし、40枚の画像を使用しました。Florenceでキャプションを生成した後、すべて手作業で不整合を修正・強化しました。すべてのキャプションは「slptp」で始まっていました。なので、どこに「slptp」を追加しても、良い結果が得られるはずです。また、すべての画像を「汚くて不潔なディープスロートオーラル」と記述しました。
私がキャプションで使ったのと同じようにプロンプトを書くには:
プロンプトの最初にトリガー語「slptp」を記載し、その後にカンマを付けます。
自分が本に写真を説明するような自然言語(NLP)プロンプトを書きます。つまり、他の人が読む本に書くような言葉で、自分が何を描きたいかを正確に説明してください。ただし、プロンプトの最後の文の終わり以外では句読点を使わないでください。最後にカンマを付けます。
カンマで区切ってタグを追加します(例:「oral sex, fellatio, blowjob, nasty, messy, spit, saliva, deepthroat blowjob, a man getting a blowjob, a woman giving a blowjob, sloppy and messy deepthroat blowjob, blonde, blue eyes, perky tits, thicc, etc.... etc...」)
これで、私が生成できた画像にかなり近い結果が得られるでしょう。
これは私がここに追加した最初のNSFW/「本物の」モデルです。私は長い間KohyaでLoRAをトレーニングしてきましたが、Fluxが登場したとき、AI-Toolkitのrun.pyスクリプトを編集し、config.yamlを自分のニーズに合わせて調整しました。実は、これ用にGoogle Colabブックも作成しました。こちらから見つけることができます。それほど大したものではありません。すべての功績はAI-Toolkitの創始者たちに帰します。私はただ設定を試行錯誤し、自分に合ったものを発見しただけです。それらをデフォルトオプションとして残しました。誰かに感謝したいなら、彼らに感謝してください。
では!汚くて不潔で、べちゃべちゃで荒々しいオーラルセックスの生成を楽しみましょう!
ComfyUIのインストール方法と、このLoRAの使用方法(Windows 11とNVIDIAカードのみ):
(他のOSやグラフィックカードでも使用可能ですが、私はそれらを持っていないので、設定方法を知っているふりはしません。WindowsとNVIDIAだけを知っています。それ以外の質問はGoogleで調べてください。私は助けられませんし、他のプラットフォームを学ぶつもりもありません。
(男は自分で考えないと成長しない。自分でなんとかしろ。)
ComfyUI:
Git For Windows(デフォルト設定)をダウンロード・インストールしたあと |
そして、Python 3.10.11(最初の画面で「ADD TO PATH」にチェックを入れて、残りはデフォルト設定)をインストール |
C:\に「AI」というフォルダを作成 |
その後、コマンドプロンプトを開く(Winキー+R → 'cmd'と入力 → Enter) |
'cd /d C:\AI' と入力してEnter |
'git clone https://github.com/comfyanonymous/comfyui' と入力してEnter |
'cd comfyui' と入力してEnter |
'python -m venv venv' と入力してEnter |
'venv\scripts\activate.bat' と入力してEnter |
'pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121' と入力してEnter |
'pip install -r requirements.txt' と入力してEnter |
このモデルをダウンロードし、ファイルを 'C:\AI\comfyui\models\LoRAs' に移動 |
flux-dev.1 safetensorsファイルを 'C:\AI\comfyui\models\checkpoints' に配置 |
ae.safetensorsファイルを 'C:\AI\comfyui\models\VAE' に配置 |
clip-lとt5xxlファイルをそれぞれ 'C:\AI\comfyui\models\clip' と 'C:\AI\comfyui\models\text_encoder' に配置 |
その後、コマンドプロンプトで 'main.py' と入力してEnter <---- このコマンドを「c:\ai\comfyui」フォルダから実行し、以降ComfyUIを起動するたびに使用してください |
その後、ブラウザでComfyUIの背景をダブルクリックして、以下のノードを追加してください。一つずつ入力し、ポップアップウィンドウで検索し、Comfy環境に正しく追加されるか確認してください(以下のすべてのノードを追加し、その後それぞれの手順に従うことをお勧めします)。
「Checkpoint Loader」:ドロップダウンからFlux-devモデルを選択し、右側の出力を「LoadLora」ノードの入力に接続。
「Dual Clip Loader」:最初の項目に「clip_l.safetensors」、二番目の項目に「t5xxl+fp16.safetensors」を選択。その後、「Clip」出力を「Load LoRA」ノードの入力に接続。
「Lora Loader」:「Checkpoint Loader」の「model」出力を「Lora Loader」の入力に接続し、「Dual Clip Loader」の「Clip」出力を「Lora Loader」の入力に接続。その後、「Lora Loader」の右側にある「model」と「clip」出力をそれぞれ、「KSampler」の「model」入力と「CLIP Text Encoder」の「Clip」入力に接続。「Lora Loader」の「clip」出力は、2つの「CLIP Text Encoder」の両方に接続できます。
「VAE Loader」:「ae.safetensors」を選択し、出力を「VAE Decode」ノードの入力に接続。
「KSampler」:「control after generate」を「random」に設定(毎回異なる画像を生成したい場合)、ステップ数を22–32、CFGを1.0に設定(最大で3.5〜4.5まで動作しますが、それ以上は品質が低下します。私は2.4くらいに保っています)、「sampler name」を「euler」に設定(Fluxモデルでは他のサンプラーはほとんど動作しません)、「scheduler」を「sgm_uniform」に設定(Fluxモデルでは他はほとんど動かないので、暇なら試してみてください)。
「Empty Latent Image」:幅と高さをどちらも「1024」に設定し、「latent」出力を「KSampler」の「latent_image」入力に接続。
「Clip Text Encoder」:「Dual Clip Loader」の「clip」出力を「clip」入力に接続。
「VAE Decoder」:「VAE Loader」の出力を入力に接続。「EmptyLatentImage」の出力を「Samples」入力に接続。その後、「image」出力を「Save Image」ノードの入力に接続。



















