Formidable Bikini (Azur Lane) | 可畏 泳装(碧蓝航线)

세부 정보

파일 다운로드

모델 설명

2023.07.30:

  • V1 및 V2는 베타 버전이며 공개되지 않았습니다. V3가 공식 공개 버전입니다.

  • V1 and V2 are beta versions and are not publicly available. V3 is official public version.

  • 더 정밀한 제어를 위해 더 많은 트리거 단어를 사용하세요.

  • Use more trigger words for more precise control.

    • 주요 트리거 단어: formidable_yz, bikini_yz, red choker, criss-cross halter

    • 보조 트리거 단어: feather boa, single thighhigh

약어에 대해:

Bikini ≈ YongZhuang = YZ

크면 좋다.

bigger is better.

🥵

학습 세트:

  • 반복 횟수 = 4

    • 클로즈업 = 5

    • 초상화 = 5

    • 상반신 = 5

    • 카우보이 샷 = 5

    • 풀바디 = 5

    • 앉은 자세 = 5

    • 기타 포즈 = 10

    • NSFW = 10

  • 이미지 수 = 50

  • 에포크 수 = 12

#!/bin/bash
# LoRA train script by @Akegarasu
​
# Train data path | 설정할 학습 모델 및 이미지 경로
pretrained_model="./sd-models/model.ckpt" # base model path | 베이스 모델 경로
is_v2_model=0                             # SD2.0 model | SD2.0 모델. 2.0 모델에서는 clip_skip이 기본적으로 무시됨
parameterization=0                        # parameterization | 파라미터화. 이 파라미터는 V2 파라미터와 함께 사용해야 하며 실험적 기능임
train_data_dir="./train/2.formidable-yz"  # train dataset path | 학습 데이터셋 경로
reg_data_dir=""                           # directory for regularization images | 정규화 이미지 경로. 기본적으로 정규화 이미지를 사용하지 않음.
​
# Network settings | 네트워크 설정
network_module="networks.lora" # 여기에서 학습할 네트워크 유형을 설정합니다. 기본값은 networks.lora, 즉 LoRA 학습입니다. LyCORIS(LoCon, LoHa) 등을 학습하려면 이 값을 lycoris.kohya로 변경하세요.
network_weights=""             # pretrained weights for LoRA network | 기존 LoRA 모델을 기반으로 학습을 계속하려면 LoRA 모델 경로를 입력하세요.
network_dim=32                 # network dim | 일반적으로 4~128 사이 사용. 크면 좋은 것이 아님
network_alpha=16               # network alpha | 일반적으로 network_dim과 동일하거나 그 절반과 같은 작은 값 사용. 언더플로 방지. 기본값은 1이며, 작은 alpha를 사용할 경우 학습률을 높여야 함.
​
# Train related params | 학습 관련 파라미터
resolution="768,768"  # image resolution w,h. 이미지 해상도, 가로, 세로. 비정사각형도 가능하지만 64의 배수여야 함.
batch_size=2          # 배치 크기
max_train_epoches=20  # 최대 학습 에포크
save_every_n_epochs=1 # 매 N 에포크마다 저장
​
train_unet_only=0            # train U-Net only | U-Net만 학습. 이 옵션을 활성화하면 효과가 떨어지지만 VRAM 사용량이 크게 감소함. 6GB VRAM 있으면 활성화 가능
train_text_encoder_only=0    # train Text Encoder only | 텍스트 인코더만 학습
stop_text_encoder_training=0 # stop text encoder training | N번째 스텝에서 텍스트 인코더 학습을 중단
​
# 잡음
noise_offset="0" # noise offset | 학습 중 잡음 오프셋을 추가하여 매우 어두운 또는 매우 밝은 이미지 생성을 개선. 활성화 시 추천 값: 0.1
keep_tokens=2    # keep heading N tokens when shuffling caption tokens | 캡션 토큰을 랜덤 섞을 때, 앞의 N개 토큰은 유지
min_snr_gamma=0  # minimum signal-to-noise ratio (SNR) value for gamma-ray | 감마선 이벤트의 최소 SNR 값. 기본값 0
​
multires_noise_iterations=6 # 다중 해상도(피라미드) 잡음 반복 횟수. 추천: 6-10. noise_offset과 함께 사용 불가.
multires_noise_discount=0.3 # 다중 해상도(피라미드) 감소율. 추천: 0.3. 위 multires_noise_iterations와 함께 사용해야 함.
​
# 학습률
lr="3.5e-5"            # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5"       # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" #   3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0                   # warmup steps | 학습률 웜업 단계. lr_scheduler가 constant 또는 adafactor일 때 0으로 설정해야 함.
lr_restart_cycles=1                 # cosine_with_restarts restart cycles | 코사인 재시작 횟수. lr_scheduler가 cosine_with_restarts일 때만 적용됨.
​
# 출력 설정 | Output settings
output_name="2.formidable-yz" # output model name | 모델 저장 이름
save_model_as="safetensors"   # model save ext | 모델 저장 형식: ckpt, pt, safetensors
​
# 학습 재개 설정 | Resume training state
save_state=0 # save state | 학습 상태 저장. 이름은 <output_name>-??????-state 형식이며 ??????는 에포크 수를 나타냄
resume=""    # resume from state | 특정 상태 폴더에서 학습을 재개. 위 파라미터와 함께 사용해야 함. 규칙상 에포크 수 및 전역 스텝은 저장되지 않아 복원 시에도 1부터 시작. network_weights와 구현 방식이 다름
​
# 기타 설정
min_bucket_reso=256              # arb min resolution | 임의 최소 해상도
max_bucket_reso=1024             # arb max resolution | 임의 최대 해상도
persistent_data_loader_workers=0 # persistent dataloader workers | 메모리 소모 가능성 있음. 학습 데이터 로더 워커를 유지하여 각 에포크 간 대기 시간 감소
clip_skip=2                      # clip skip | 신비로운 설정. 일반적으로 2 사용
​
# 최적화기 설정
optimizer_type="Lion" # Optimizer type | 최적화기 유형. 기본값은 AdamW8bit. 선택 가능: AdamW, AdamW8bit, Lion, SGDNesterov, SGDNesterov8bit, DAdaptation, AdaFactor
​
# LyCORIS 학습 설정
algo="lora"  # LyCORIS network algo | LyCORIS 네트워크 알고리즘. 선택 가능: lora, loha, lokr, ia3, dylora. lora는 locon과 동일
conv_dim=4   # conv dim | network_dim과 유사. 추천값: 4
conv_alpha=4 # conv alpha | network_alpha와 유사. conv_dim과 동일하거나 더 작은 값 사용 가능
dropout="0"  # dropout | 드롭아웃 확률. 0은 드롭아웃 사용 안 함. 값이 클수록 드롭아웃이 많아짐. 추천: 0~0.5. LoHa/LoKr/(IA)^3은 현재 미지원

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.