BigAsp2-X-Sim Omega vpred
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
업데이트 1: 실제 데이터 부족;
긍정적 프롬프트;
masterpiece, most aesthetic, very aesthetic,
real, realistic, real person,
score_9, score_8, score_7,
source_real,
<bigasp 캡션 여기에 입력>
real, realistic, realistic background, real,
<bigasp 고정자용 추가 캡션>
<grid, depiction, offset 태그 여기에 입력>
<omega 캐릭터 캡션 여기에 입력>
<배경 및 설정 태그 여기에 입력, 연도 태그, 객체 및 기타 모든 내용>
부정적 프롬프트;
ai generated, lowres,
disgusting, very displeasing, normal aesthetic,
(anime, anime style, source_anime, 2d, 2d \(artwork\):1.1),
film grain, low quality, 1990s, vhs filter,
bad edit, bad anatomy,
jpeg artifacts,
monochrome, greyscale,
3d, 3d \(artwork\),
TXT2IMG;
RES_2S -> BETA는 좋음.
DPMPP_2S A -> BETA는 좋음.
Euler A -> BETA는 약간 나쁨.
Euler -> BETA는 괜찮음, 예상외로.
RES_2M은 작동하지 않음.
IMG2IMG;
노이즈 감소는 0.7 이하로 설정하세요. 현재까지 적합도가 불완전하기 때문입니다.
RES_2S -> BETA
EULER_A -> BETA
이러한 수정이 진행되면서 성장통이 조금 덜 두드러지며 고품질의 absurdres 이미지들이 두드러집니다. 이 경우 주로 3D와 애니메이션입니다.
저는 이 모델을 제대로 다시 학습시키기 위한 충분한 실제 데이터를 가지고 있지 않다고 생각합니다. 더 많은 실제 데이터를 확보하거나 Omega 클립 강도를 더 많이 활용해야 합니다.
애니메이션에 대한 강한 부정적 프롬프트는 실제 이미지의 흐름을 도와주지만, 충분하지 않습니다.
만약 원래 BigAsp 이미지에 접근할 수 있다면, 직접 재태그하여 이미지의 일부만으로 다시 학습할 수 있습니다.
10만 장의 실제 이미지는 충분하지 않습니다. 적어도 백만 장은 필요할 것 같습니다. 그러나 백만 장의 실제 이미지에 태그를 달기는 상당한 시간이 걸릴 것이므로, 백만 장 이미지 Omega 데이터셋의 첫 번째 에포치가 완료될 때까지 이 모델을 잠시 기다려주세요.
BigAsp 클립을 사용하더라도 애니메이션 이미지가 너무 많아서 현저한 편향을 유발합니다. 오늘 밤 에포치가 완료되면 어떻게 될지 지켜보겠습니다.
최종 버전 하나, 즉 Stage 3가 등장할 예정입니다. 현재 이 버전은 모델 적합에 매우 효과적인 표준 100만 이미지 팩을 사용해 훈련 중입니다.
이 버전은 BigAsp VPRED Solidifed가 될 예정이지만, 지금은 여전히 조리 중입니다.
https://huggingface.co/AbstractPhil/OMEGA-BIGASP/tree/main
BigAsp2를 가지고 계시고 체크포인트 다운로드에 지쳤다면, 병합 방법을 아신다면 여기에 참여해 주세요; /model/1421066
Stage 1 및 Stage 2 LoRA는 여기서 찾을 수 있습니다; 가장 최신 버전을 가져와 클립 병합을 직접 하거나, BigAsp 클립을 직접 병합하여 제가 만든 것보다 나은 조합을 만들어보세요.
저는 클립을 학습하지 않았습니다. 제 클립과 BigAsp 클립은 매우 다르기 때문에, 제 클립의 절반과 나머지 BigAsp 클립을 사용하여 UNET만 학습했습니다. 이는 사실상 BigAsp를 사용해 강력하게 미세 조정한 모델이며, Omega Clip_L을 미세 조정 컨트롤러로 사용했습니다.
Omega Clip_L은 1억 개 이상의 샘플로 학습되었으므로, 이 분야의 전문가라면 단연 이 클립이 최고의 명장입니다.
네, 절대… 절대 이 모델에 원하지 않는 것을 입력하지 마세요.
BigAsp2는 정말 미쳤습니다.
이 모델은 어떤 표준 편차에도 맞지 않습니다.
일반적인 미세 조정 옵션을 따르지 않습니다.
때로는 미세 조정 훈련을 완전히 무시합니다.
심지어 간단한 미세 조정 데이터도 학습된 내용의 대량을 파괴할 수 있습니다.
vpred로 변환하기 위해, 유사하지만 다른 현실적 데이터를 사용해 노이즈 타임스텝만 학습했습니다.
이 변환은 반쪽 성공적이었고 매우 저비용이었고, 꽤 멋진 일입니다. 하지만 그래도 이 모델은 통제 불가능하다는 사실은 바뀌지 않습니다. 그래서 저는 Omega Order Bringer와 병합했습니다.
50/50 (균형) 셰프의 선택은 오메가와 BigAsp2를 50/50로 병합한 것입니다. 이 버전이 가장 우수한 컨트롤러를 제공하지만, 더 미친 결과를 원한다면 AspHeavy로 내려가거나, 특히 자기 고통을 즐긴다면 병합 전의 전체 Refit 버전을 선택하세요.
25/75 (OmegaHeavy)는 OmegaHeavy에 꽤 좋습니다. Omega는 안정적이고 거의 모든 것을 수행할 수 있습니다.
75/25 (AspHeavy) BigAsp는 재미있지만 상당히 통제하기 어렵고 숫자를 세는 능력이 매우 떨어집니다.
이 모델은 표준 영어 전문가와는 거리가 멀지만, Omega 클립을 사용한 최소 학습으로 VPRED 변환의 강력함을 보여주는 훌륭한 프로토타입입니다.
실망스러웠지만, 저는 이 BigAsp 클립을 사용해 Omega에 표준 영어를 가르칠 것으로 기대했고, 반대로 일어났습니다. Omega가 뇌수술당했고, 따라서 그 학습은 중단되었으며, 대신 BigAsp 학습이 완료되었습니다.
BigAsp2의 재학습 및 미세 조정 버전; VPRED 활용을 위해 수리 및 재학습되었습니다.
재학습 위에 V1 병합은 다음과 같습니다;
50/50 오메가V0001 클립과 BigAsp 클립
미세 조정 학습에 사용된 내용:
Stage 1 -> 80,000개 샘플, 중간 타임스텝 학습
OmegaAsp CLIP_L_1 = BigAsp CLIP_L 50/50 OmegaSim CLIP_L
- 고정
BigAsp CLIP_G
- 고정
Stage 2 -> 200,000...??? 샘플, 사실 헷갈려서 기억이 안 납니다
OmegaAsp CLIP_L_2 = OmegaAsp_CLIP_L_1 -> BigAsp CLIP_L 50/50 (이제 75% BigAsp)
- 고정
BigAsp CLIP_G
- 고정
Sim Omega 73의 clip_l과 clip_g를 사용하여 고정된 클립으로 재학습했습니다.
이 과정은 BigAsp에서는 작동하지 않던 많은 안전한 요소들을 도입했고, 변환 중 완전히 파괴했던 NSFW 요소들을 상당 부분 제거했습니다.
3가지 버전은 원래 버전을 선호하는 사용자와 새 버전을 선호하는 사용자를 위해 준비되었습니다.


