"Trending on ArtStation" trained without a dataset
세부 정보
파일 다운로드
모델 설명
학습에는 데이터셋이 필요하지 않으며, 단어만 필요합니다.
텍스트만 사용하여 2400단계(2개의 a6000에서 약 7시간 소요)로 학습 완료:
https://github.com/ntc-ai/conceptmod
첫 2000단계의 학습 프롬프트:
"=trending on artstation, 8k, ultra hd|boring=exciting|drab=captivating|1woman%generic woman wearing generic clothes:0.003|1woman%woman wearing many unique tasteful accessories and a cute outfit:-0.003|@monochrome--|@black and white--|@text--|@written words--"
조건부를 "trending on artstation, 8k, ultra hd" 쪽으로 유도합니다.
"boring"을 "exciting"으로, "drab"을 "captivating"으로 이동시킵니다.
업데이트: 이는 대체가 아니라 유도입니다. 대체를 위해서는 추가적인 % 항목이 필요합니다. readme.md 참조"monochrome", "black and white", "text", "written words"의 등장 빈도를 줄입니다.
"generic woman wearing generic clothes"에서 1woman을 약간 멀어지게 블랜딩합니다.
"woman wearing many unique tasteful accessories and a cute outfit" 쪽으로 1woman을 약간 유도합니다.
업데이트: 이 항목들이 반대로 되어 있을 가능성이 있습니다. 웃기네요.
다음 400단계의 학습 프롬프트:
"@#|1woman=ugly manly sad wretched:-0.1|1woman=woman wearing many unique tasteful accessories and a cute outfit|nipples--:0.1|cleavage--:0.01"
"@#" 연산자를 사용하여 조건부 개념을 고정합니다.
"nipples"의 등장 빈도를 0.1 줄이고, "cleavage"는 0.01 줄입니다.
이 기법은 https://github.com/rohitgandikota/erasing 기반
모델은 /model/13565/criarcys-fantasy-to-experience 기반







