Kashino‘s bikini (Azur Lane) | 樫野的泳装(碧蓝航线)
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
카시노에게서 흰 비키니를 빌렸다.
I took a white bikini from Kashino😋
2023.10.09:
더 정밀한 제어를 위해 더 많은 트리거 단어를 사용하세요.
Use more trigger words for more precise control.
주요 트리거 단어:
white choker,white_bikini_yz보조 트리거 단어:
arm strap,see-through sleeves,thigh strap
약어 설명:
Bikini ≈ YongZhuang = YZ
학습 데이터셋:
반복 횟수 = 2
클로즈업 = 10
초상화 = 10
상체 = 10
카우보이샷 = 10
풀바디 = 5
앉은 자세 = 10
눕은 자세 = 10
다른 포즈 = 5
다른 옷 = 15
노출 = 15
이미지 수 = 100
에포크 수 = 13
#!/bin/bash
# LoRA train script by @Akegarasu
# Train data path | 설정할 학습용 모델, 이미지 경로
pretrained_model="./sd-models/model.safetensors" # base model path | 기본 모델 경로
is_v2_model=0 # SD2.0 model | SD2.0 모델 (2.0 모델에서는 clip_skip 기본값 무효)
parameterization=0 # parameterization | 파라미터화 (이 파라미터는 V2 파라미터와 함께 사용해야 함, 실험적 기능)
train_data_dir="./train/clothes-kashino-yz" # train dataset path | 학습 데이터셋 경로
reg_data_dir="" # directory for regularization images | 정규화 이미지 경로, 기본적으로 정규화 이미지 사용 안 함.
# Network settings | 네트워크 설정
network_module="networks.lora" # 여기서 학습할 네트워크 유형을 설정합니다. 기본값은 networks.lora, 즉 LoRA 학습입니다. LyCORIS (LoCon, LoHa) 등을 학습하려면 이 값을 lycoris.kohya로 변경하세요.
network_weights="" # pretrained weights for LoRA network | 기존 LoRA 모델을 기반으로 계속 학습하려면 LoRA 모델 경로를 입력하세요.
network_dim=32 # network dim | 일반적으로 4~128 사용, 반드시 크면 좋은 것은 아님
network_alpha=16 # network alpha | 일반적으로 network_dim과 동일하거나 그 절반 정도的小值 사용, 언더플로우 방지. 기본값은 1이며, 작은 alpha를 사용할 경우 학습률을 높여야 함.
# Train related params | 학습 관련 파라미터
resolution="768,768" # image resolution w,h. 이미지 해상도, 가로, 세로. 비정사각형도 지원하지만 64의 배수여야 함.
batch_size=2 # 배치 크기
max_train_epoches=20 # 최대 학습 에포크
save_every_n_epochs=1 # 매 N 에포크마다 저장
train_unet_only=0 # U-Net만 학습 | 이 옵션을 켜면 효과는 감소하지만 VRAM 사용량이 크게 줄어듦. 6GB VRAM일 경우 켜는 것이 좋음
train_text_encoder_only=0 # 텍스트 인코더만 학습
stop_text_encoder_training=0 # N스텝 이후 텍스트 인코더 학습 중단
# 노이즈
noise_offset="0" # noise offset | 학습 중 어두운 또는 밝은 이미지 생성을 개선하기 위해 노이즈 오프셋을 추가. 활성화 시 0.1 추천
keep_tokens=2 # 캡션 토큰을 셔플할 때 앞의 N개 토큰은 유지
min_snr_gamma=0 # minimum signal-to-noise ratio (SNR) value for gamma-ray | 감마선 이벤트의 최소 신호 대 잡음비(SNR) 값, 기본값 0
multires_noise_iterations=6 # 다중 해상도(피라미드) 노이즈 반복 횟수, 추천 6-10. noise_offset과 동시에 사용 불가.
multires_noise_discount=0.3 # 다중 해상도(피라미드) 감소율, 추천 0.3. 위의 multires_noise_iterations와 함께 사용해야 함.
# 학습률
lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" # 3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0 # 학습률 웜업 스텝, lr_scheduler가 constant 또는 adafactor일 경우 0으로 설정해야 함.
lr_restart_cycles=1 # cosine_with_restarts 재시작 사이클, lr_scheduler가 cosine_with_restarts일 때만 적용됨.
# 출력 설정 | Output settings
output_name="clothes-kashino-yz" # 출력 모델 이름 | 모델 저장 이름
save_model_as="safetensors" # 모델 저장 확장자 | ckpt, pt, safetensors
# 학습 상태 복원 | Resume training state
save_state=0 # 학습 상태 저장 | 저장 이름은 <output_name>-??????-state 형식, ??????는 에포크 번호
resume="" # 상태 파일에서 학습 재개 | 위 save_state와 함께 사용. 규격 파일 제한으로 에포크 수와 전역 스텝은 저장되지 않으며, 복원 시에도 1부터 시작. network_weights와 구현 방식이 다름.
# 기타 설정
min_bucket_reso=256 # arb min resolution | arb 최소 해상도
max_bucket_reso=1024 # arb max resolution | arb 최대 해상도
persistent_data_loader_workers=0 # persistent dataloader workers | 메모리 과다 사용 가능성 있음. 각 에포크 간 대기 시간을 줄이기 위해 데이터 로더 워커 유지
clip_skip=2 # clip skip | 신비롭지만 보통 2 사용
# 최적화기 설정
optimizer_type="Lion" # Optimizer type | 최적화기 유형, 기본값 AdamW8bit, 선택 가능: AdamW AdamW8bit Lion SGDNesterov SGDNesterov8bit DAdaptation AdaFactor
# LyCORIS 학습 설정
algo="lora" # LyCORIS network algo | LyCORIS 네트워크 알고리즘, 선택 가능: lora, loha, lokr, ia3, dylora. lora는 locon과 동일
conv_dim=4 # conv dim | network_dim과 유사, 추천값 4
conv_alpha=4 # conv alpha | network_alpha와 유사, conv_dim과 동일하거나 더 작은 값 사용 가능
dropout="0" # dropout | 드롭아웃 확률, 0은 드롭아웃 사용 안 함, 값이 클수록 더 많이 드롭, 추천값 0~0.5. LoHa/LoKr/(IA)^3은 현재 미지원




