Kashino Bikini (Azur Lane) | 樫野 泳装(碧蓝航线)
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
캐시노 유제품, 신뢰할 수 있어😋
2023.10.08:
더 정밀한 제어를 위해 더 많은 트리거 단어를 사용하세요.
Use more trigger words for more precise control.
주요 트리거 단어:
kashino,hair_flower_yz,white choker,white_bikini_yz보조 트리거 단어:
crossed bandaids,arm strap,see-through sleeves,thigh strap테스트 단어:
cow tail,paizuri on lap,breasts squeezed together
기타:
Bikini ≈ YongZhuang = YZ
소가 소를 보고 터지려 해🥵
소는 소를 생각하고 소의 우음에 화가 나😡
학습 데이터 세트:
반복 횟수 = 2
클로즈업 = 10
초상화 = 10
상반신 = 10
카우보이 샷 = 10
전체 신체 = 5
앉은 자세 = 10
누운 자세 = 10
기타 포즈 = 5
기타 옷 = 10
노출 = 10
파이즈리 = 10
이미지 수 = 100
에포크 수 = 13
#!/bin/bash
# LoRA train script by @Akegarasu
# Train data path | 설정 학습용 모델, 이미지
pretrained_model="./sd-models/model.safetensors" # base model path | 기본 모델 경로
is_v2_model=0 # SD2.0 model | SD2.0 모델 2.0 모델에서는 clip_skip 기본값 무효
parameterization=0 # parameterization | 파라미터화 이 파라미터는 V2 파라미터와 동기화되어야 함 실험적 기능
train_data_dir="./train/kashino-v1" # train dataset path | 학습 데이터셋 경로
reg_data_dir="" # directory for regularization images | 정규화 이미지 경로, 기본값은 정규화 이미지 사용 안 함。
# Network settings | 네트워크 설정
network_module="networks.lora" # 여기서 학습할 네트워크 유형을 설정합니다. 기본값은 networks.lora, 즉 LoRA 학습입니다. LyCORIS(LoCon, LoHa) 등을 학습하려면 이 값을 lycoris.kohya로 변경하세요.
network_weights="" # pretrained weights for LoRA network | 기존 LoRA 모델을 기반으로 학습을 계속하려면 LoRA 모델 경로를 입력하세요.
network_dim=32 # network dim | 일반적으로 4~128, 크면 좋은 것은 아님
network_alpha=16 # network alpha | 일반적으로 network_dim과 동일하거나 더 작은 값(예: network_dim의 절반)을 사용하여 언더플로우 방지. 기본값은 1이며, 작은 alpha를 사용하면 학습률을 높여야 함.
# Train related params | 학습 관련 파라미터
resolution="768,768" # image resolution w,h. 이미지 해상도, 가로, 세로. 비정사각형도 가능하지만 64의 배수여야 함.
batch_size=2 # 배치 크기
max_train_epoches=20 # 최대 학습 에포크
save_every_n_epochs=1 # 매 N 에포크마다 저장
train_unet_only=0 # train U-Net only | U-Net만 학습, 이 옵션을 활성화하면 효과는 약간 떨어지지만 VRAM 사용량이 크게 줄어듦. 6GB VRAM이 있을 경우 활성화 가능
train_text_encoder_only=0 # train Text Encoder only | 텍스트 인코더만 학습
stop_text_encoder_training=0 # stop text encoder training | N 스텝 이후 텍스트 인코더 학습 중지
# 노이즈
noise_offset="0" # noise offset | 학습 중 노이즈 오프셋을 추가하여 매우 어두운 또는 매우 밝은 이미지의 생성을 개선. 활성화 시 0.1 권장
keep_tokens=2 # keep heading N tokens when shuffling caption tokens | 캡션 토큰을 랜덤 셔플할 때 앞의 N개 토큰은 유지.
min_snr_gamma=0 # minimum signal-to-noise ratio (SNR) value for gamma-ray | 감마선 이벤트의 최소 신호 대 잡음비(SNR) 값 기본값 0
multires_noise_iterations=6 # 다중 해상도(피라미드) 노이즈 반복 횟수 권장 6-10. noise_offset과 동시에 사용할 수 없음.
multires_noise_discount=0.3 # 다중 해상도(피라미드) 감쇠율 권장 0.3, 위의 multires_noise_iterations와 동시에 사용해야 함.
# 학습률 | Learning rate
lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" # 3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0 # warmup steps | 학습률 워밍업 단계, lr_scheduler가 constant 또는 adafactor일 때 이 값은 0으로 설정해야 함.
lr_restart_cycles=1 # cosine_with_restarts restart cycles | 코사인 재시작 주기, lr_scheduler가 cosine_with_restarts일 때만 적용됨.
# 출력 설정 | Output settings
output_name="kashino-v1" # output model name | 모델 저장 이름
save_model_as="safetensors" # model save ext | 모델 저장 형식 ckpt, pt, safetensors
# 학습 상태 복원 | Resume training state
save_state=0 # save state | 학습 상태 저장. 이름은 <output_name>-??????-state 형식이며 ????는 에포크 수를 나타냄.
resume="" # resume from state | 특정 상태 파일에서 학습을 재개. 위의 파라미터와 함께 사용해야 함. 규칙 파일 제한으로 인해 에포크 수와 전체 스텝 수는 저장되지 않으며 복원 시에도 1부터 시작됨. network_weights와의 구현 차이 있음.
# 기타 설정
min_bucket_reso=256 # arb min resolution | 임의 최소 해상도
max_bucket_reso=1024 # arb max resolution | 임의 최대 해상도
persistent_data_loader_workers=0 # persistent dataloader workers | 메모리 과부하 가능, 학습 데이터셋 로더 작업자를 유지하여 각 에포크 사이의 정지 시간 줄임.
clip_skip=2 # clip skip | 신비로운 파라미터, 일반적으로 2 사용
# 최적화기 설정
optimizer_type="Lion" # Optimizer type | 최적화기 유형 기본값은 AdamW8bit, 선택: AdamW AdamW8bit Lion SGDNesterov SGDNesterov8bit DAdaptation AdaFactor
# LyCORIS 학습 설정
algo="lora" # LyCORIS network algo | LyCORIS 네트워크 알고리즘 선택: lora, loha, lokr, ia3, dylora. lora는 locon과 동일
conv_dim=4 # conv dim | network_dim과 유사, 권장값 4
conv_alpha=4 # conv alpha | network_alpha와 유사, conv_dim과 동일하거나 그보다 작은 값 사용 가능
dropout="0" # dropout | 드롭아웃 확률, 0은 드롭아웃 사용 안 함, 값이 클수록 더 많은 드롭아웃, 권장값 0~0.5, LoHa/LoKr/(IA)^3는 현재 지원 안 함.














