[FLUX LoRA] 'Sloppy Toppy' [Messy/Sloppy/Nasty Deepthroat Blowjob LoRA] [ADD: 'slptp' TO PROMPT]
세부 정보
파일 다운로드
모델 설명
'Sloppy Toppy' 개념 Flux-dev1 LoRA!
이 LoRA는 매우 더럽고 혐오스러운 오일링을 재현하기 위한 것입니다.
만약 당신이 "기다려, 그게 뭐야?"라고 생각한다면, 먼저 말해드리겠습니다: "안녕하세요, 인터넷에 오신 걸 환영합니다. 여기는 가끔 굉장히 기�기 때문에, 그냥 허리띠를 단단히 매세요."
그 후, 만약 정말로 18세 이상이면서도 그게 뭔지 모르신다면, 설명해드릴게요:
"처음 보았을 때 그 정도로 거칠고 미친 듯한 모습 때문에 불편함을 느끼는, 고강도의 페이스펑킹 오일링입니다. 남자가 여자의 머리를 아예 아래로 누르며 그녀의 얼굴이 그의 골반에 닿을 정도로 밀어넣고, 여자가 자신의 볼을 스스로 벌리며 남자가 가능한 한 깊숙히 넣으려고 하는, 침, 타액, 침을 흘리며 때로는 콧물까지 흘러나와 남자의 고환과 여자의 얼굴 전체에 번지며, 메이크업이 망가지고 눈물과 질식으로 인해 얼굴에 자국이 흘러내리는 그런 장면들입니다. 때로는 눈이 빨개져 있죠." 이 LoRA는 위 모든 것을 구현할 수 있습니다. 경고했습니다.
프롬프트에 단지 "slptp"를 추가하세요. 혹은 "slptp style blowjob"이라고 쓰기만 해도 충분합니다.
이 LoRA는 Flux-dev1로 학습되었지만, 제가 시도한 모든 하이브리드 체크포인트와, VAE, clip-l, t5(텍스트-텍스트 전이 트랜스포머) 텍스트 인코더를 내장한 AIO(모두 포함) Schnell 모델에서도 작동합니다. 이들 모델은 20GB가 넘는 거대한 파일 크기를 가지지만, N4 전용이며 원본 -dev1 가중치와 동일한 파일 크기를 유지합니다.
물론, 이 LoRA는 학습에 사용된 Flux-dev1에서 가장 잘 작동합니다.
데이터셋은 수작업으로 태깅되었습니다. 40장의 이미지를 사용했고, Florence를 사용해 캡션을 생성한 뒤, 모든 불일치를 손으로 보완하고 수정했습니다. 모든 캡션은 "slptp"로 시작했으므로, 프롬프트 어디에든 "slptp"를 추가하면 좋은 결과를 얻을 수 있습니다. 저는 모든 이미지를 "더럽고 어지러운 딥스로트 오일링"이라고 설명했습니다.
저가 캡션한 방식과 정확히 동일하게 프롬프트를 작성하려면:
프롬프트의 가장 앞에 트리거 단어 **"slptp"**를 사용하고, 그 뒤에 콤마를 붙이세요.
자연어 프롬프팅(NLP)으로, 마치 다른 사람이 읽을 책을 쓰듯이 원하는 내용을 정확하게 설명하세요. 단, 프롬프트 끝부분을 제외하고는 문장 부호를 사용하지 마세요. 끝에 콤마 하나를 추가하세요.
콤마로 구분하여 태그를 추가하세요. (예: "oral sex, fellatio, blowjob, nasty, messy, spit, saliva, deepthroat blowjob, a man getting a blowjob, a woman giving a blowjob, sloppy and messy deepthroat blowjob, blonde, blue eyes, perky tits, thicc, etc.... etc...")
이렇게 하면 제가 생성한 이미지와 매우 유사한 결과를 얻을 수 있습니다.
이것은 제가 이곳에 추가한 최초의 NSFW/실제 모델입니다. 저는 Kohya를 사용해 오랫동안 LoRA를 학습해왔지만, Flux가 출시되면서 AI-Toolkit의 run.py 스크립트를 수정하고, config.yaml을 제 요구사항에 맞게 조정했습니다. 실제로 이를 위한 Google Colab 노트북도 만들었으며, 여기에서 찾을 수 있습니다. 별것 아니고, 모든 credits는 AI-Toolkit 제작자들에게 돌아갑니다. 제가 한 것은 설정을 실험해보며 제게 맞는 방식을 찾은 것뿐이며, 그 설정을 기본값으로 남겨두었습니다. 누군가에게 감사를 전하고 싶다면, 그들에게 하세요.
좋습니다! 더럽고 혐오스럽고, 어지러우며, 거친 오일링 생성을 즐기세요!
ComfyUI 설치 및 이 LoRA를 사용하는 방법 (Windows 11 및 NVidia 카드만 해당)
_(다른 운영체제/그래픽카드도 사용할 수 있지만, 저는 그것들을 소유하고 있지 않으므로 설정 방법을 안다고 가정하지 않습니다. 저는 Windows와 NVidia만 알고 있습니다. 다른 사항에 대해 질문이 있으면 구글에 검색하세요. 제가 도와드릴 수 없으며, 다른 플랫폼을 배우지 않겠습니다.
(남자는 스스로 알아서 해결한다. 그냥 해내.) )
ComfyUI 설치 방법:
Git For Windows를 다운로드하고 설치하세요 (기본 설정 그대로) |
또한 Python 3.10.11을 설치하세요 (기본 설정 그대로 단, 첫 번째 화면에서 "ADD TO PATH" 체크박스를 반드시 체크하세요. 나머지는 기본값) |
C:\ 에 **'AI'**라는 폴더를 만드세요 |
그 후 명령 프롬프트를 열세요 (Win 키 + R, 'cmd' 입력 후 엔터) |
'cd /d C:\AI' 를 입력하고 엔터 |
'git clone https://github.com/comfyanonymous/comfyui' 를 입력하고 엔터 |
'cd comfyui' 를 입력하고 엔터 |
'python -m venv venv' 를 입력하고 엔터 |
'venv\scripts\activate.bat' 를 입력하고 엔터 |
'pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121' 를 입력하고 엔터 |
'pip install -r requirements.txt' 를 입력하고 엔터 |
이 모델을 다운로드하여 파일을 'C:\AI\comfyui\models\LoRAs' 폴더로 이동하세요 |
flux-dev.1 safetensors 파일을 'C:\AI\comfyui\models\checkpoints' 폴더로 이동하세요 |
ae.safetensors 파일을 'C:\AI\comfyui\models\VAE' 폴더로 이동하세요 |
clip-l 및 t5xxl 파일을 각각 'C:\AI\comfyui\models\clip' 폴더와 'C:\AI\comfyui\models\text_encoder' 폴더로 이동하세요 |
그 후 명령 프롬프트로 돌아가 'main.py' 를 입력하고 엔터하세요 <---- 이 명령어를 'c:\ai\comfyui' 폴더에서 실행하여 이후 ComfyUI를 매번 시작하세요
그 후 아래 노드들을 ComfyUI 브라우저 창 배경을 더블 클릭하여 입력하고, 팝업 창에서 검색하여 Comfy 환경에 추가하세요. (아래 모든 노드를 먼저 추가한 뒤, 각각의 지시에 따라 다시 돌아오실 것을 권장합니다.)
"Checkpoint Loader": 드롭다운에서 Flux-dev 모델을 선택하고, 오른쪽 노드 출력을 'LoadLora' 노드의 입력에 연결하세요.
"Dual Clip Loader": 첫 번째에 'clip_l.safetensors', 두 번째에 **'t5xxl+fp16.safetensors'**를 선택하세요. 그 후 "Clip" 출력을 "Load LoRA" 노드의 입력에 연결하세요.
"Lora Loader": "Checkpoint Loader"의 "model" 출력을 "Lora Loader" 입력에 연결하고, "Dual Clip Loader"의 "Clip" 출력도 "Lora Loader" 입력에 연결하세요. "Lora Loader" 오른쪽의 "model" 출력을 "KSampler" 노드의 "model" 입력에, "clip" 출력을 "CLIP Text Encoder" 노드의 "Clip" 입력에 연결하세요. "Lora Loader"의 "clip" 출력을 두 개의 "CLIP Text Encoder" 입력 모두에 연결할 수 있습니다.
"VAE Loader": **'ae.safetensors'**를 선택하고, 출력을 "VAE Decode" 노드의 입력에 연결하세요.
"KSampler": 'control after generate'를 'random'으로 설정하여 매번 다른 이미지를 생성하고, steps는 22-32 사이로, CFG는 1.0으로 설정하세요 (3.5~4.5까지는 작동하지만 그 이상은 매우 나쁩니다. 저는 보통 2.4로 유지합니다). "sampler name"은 "euler"로 설정하세요 (Flux 모델에 잘 작동하는 샘플러는 거의 없습니다). "scheduler"는 "sgm_uniform"으로 설정하세요 (Flux에 잘 작동하는 scheduler도 거의 없습니다. 하지만 심심하면 다른 것도 시도해보세요).
"Empty Latent Image": 너비와 높이 모두 '1024'로 설정하고, "latent" 출력을 "KSampler" 노드의 "latent_image" 입력에 연결하세요.
"Clip Text Encoder": "Dual Clip Loader"의 "clip" 출력을 "Clip" 입력에 연결하세요.
"VAE Decoder": "VAE Loader"의 출력을 입력에 연결하고, "Empty Latent Image"의 출력을 "Samples" 입력에 연결하세요. 그 후 "image" 출력을 "Save Image" 노드의 입력에 연결하세요.



















