Furukawa Nagisa (CLANNAD) | 古河渚(CLANNAD)
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
「만약 괜찮으시다면… 제가… 이 마을의 소원이 이루어지는 곳으로 당신을 데려가드릴까요?」
서문:
이것은 LoRA 모델 훈련 튜토리얼을 위해 제작된 LoRA입니다. 훈련 프로젝트는 튜토리얼에서 제공됩니다.
이것이 제가 처음으로 모델 훈련 관련 튜토리얼을 작성하는 것이므로, 잘못된 점이나 제안이 있다면 지적해 주시기 바랍니다.
2023.06.05:
피라미드 노이즈를 사용하여 이미지 품질을 향상시켰습니다.
Applying "Diffusion With Offset Noise" to enhance image quality.
가을 캐주얼과 여름 캐주얼을 추가했으나, 캐주얼에 약간의 융합 현상이 발생했으며, 유사한 옷차림에 대해 다양한 정도의 오염이 발생했습니다.
Add autumn and summer school uniforms, with the cost of some blending effects on the uniforms, and varying degrees of contamination on similar outfits.
캐릭터가 가을 캐주얼을 입도록 하려면,
yellow jacket,blue skirt와 같은 추가 태그를 사용하여 안내해 보세요.If you want characters wearing autumn school uniforms, try adding additional tags such as
yellow jacketandblue skirtfor guidance.캐릭터가 여름 캐주얼을 입도록 하려면,
white serafuku,suspender skirt와 같은 추가 태그를 사용하여 안내해 보세요.If you want characters wearing summer school uniforms, try adding additional tags such as
white serafukuandsuspender skirtfor guidance.
훈련 데이터셋:
반복 횟수 = 2
autumn_school_uniform = 60
summer_school_uniform = 60
other_clothes = 20
chibi = 5
doll_hug = 5
nsfw = 5
반복 횟수 = 4
- doll_dango = 10
이미지 수 = 165
에포크 수 = 17
#!/bin/bash
# LoRA train script by @Akegarasu
# Train data path | 설정: 훈련 모델 및 이미지
pretrained_model="./sd-models/model.ckpt" # base model path | 기본 모델 경로
is_v2_model=0 # SD2.0 model | SD2.0 모델. 2.0 모델 사용 시 clip_skip 기본값 무효
parameterization=0 # parameterization | 파라미터화. 이 값은 V2와 동기화해서 사용해야 함. 실험용 기능
train_data_dir="./train/furukawa-nagisa" # train dataset path | 훈련 데이터 경로
reg_data_dir="" # directory for regularization images | 정규화 이미지 경로. 기본적으로 정규화 이미지를 사용하지 않음.
# Network settings | 네트워크 설정
network_module="networks.lora" # 여기서 훈련할 네트워크 유형 설정. 기본값은 networks.lora (LoRA 훈련). LyCORIS (LoCon, LoHa 등)를 훈련하고 싶다면 이 값을 lycoris.kohya로 수정
network_weights="" # pretrained weights for LoRA network | 기존 LoRA 모델로부터 계속 훈련하고 싶다면 LoRA 모델 경로 입력
network_dim=32 # network dim | 일반적으로 4~128 사용. 너무 크게 하지 말 것
network_alpha=16 # network alpha | network_dim와 동일한 값이나 그 절반 정도의 값을 사용하는 것이 일반적. 하향 오류 방지. 기본값은 1. 작은 alpha 사용 시 학습률을 높여야 함
# Train related params | 훈련 관련 파라미터
resolution="768,768" # 이미지 해상도 w,h. 이미지 크기, 너비, 높이. 정사각형이 아니어도 됨. 단 64의 배수여야 함.
batch_size=2 # 배치 크기
max_train_epoches=20 # 최대 훈련 에포크 수 | maximum training epochs
save_every_n_epochs=1 # n 에포크마다 저장 | x 에포크마다 모델 저장
train_unet_only=0 # U-Net만 훈련 | U-Net만 훈련. 이 옵션을 켜면 성능이 약간 떨어지지만 VRAM 사용량을 크게 줄일 수 있음. 6G VRAM 이상 시 사용 가능
train_text_encoder_only=0 # 텍스트 인코더만 훈련 | 텍스트 인코더만 훈련
stop_text_encoder_training=0 # N단계에서 텍스트 인코더 훈련 중단 | 텍스트 인코더 훈련을 특정 단계 이후 중지
# 노이즈
noise_offset="0" # 노이즈 오프셋 | 이미지가 매우 어둡거나 매우 밝게 생성되는 현상을 개선하기 위해 훈련 중 노이즈 오프셋을 추가. 사용 시 추천 값은 0.1
keep_tokens=2 # 타이틀(캡션) 토큰을 무작위로 재정렬할 때 앞에서 N개 토큰을 고정 유지
min_snr_gamma=0 # 최소 신호 대 잡음비 (SNR) 값. 기본값 0
multires_noise_iterations=6 # 다중 해상도(피라미드) 노이즈 반복 횟수. 추천 값 6-10. noise_offset 옵션과 함께 사용 불가
multires_noise_discount=0.3 # 다중 해상도(피라미드) 감쇠 비율. 추천 값 0.3. 위의 multires_noise_iterations와 함께 사용해야 함.
# 학습률
lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5" # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" # 3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0 # 워밍업 스텝 수 | 학습률 예열 스텝 수. lr_scheduler가 constant 또는 adafactor일 경우 0으로 설정해야 함.
lr_restart_cycles=1 # cosine_with_restarts 재시작 사이클 수 | cosine_with_restarts일 때만 유효함.
# 출력 설정
output_name="furukawa-nagisa" # 출력 모델 이름 | 모델 저장 이름
save_model_as="safetensors" # 모델 저장 형식 | 지원 형식: ckpt, pt, safetensors
# 훈련 재개 설정
save_state=0 # 상태 저장 | 상태 저장 이름은 <output_name>-??????-state. ??????는 에포크 수를 의미. 이 값은 상태 복구 시에도 1부터 시작됨. 확실하게 잠금 아님.
resume="" # 상태 파일 폴더로부터 훈련 재개 | 위의 save_state와 함께 사용. 파일 규격 문제로 인해 에포크 수와 글로벌 스텝 수는 저장되지 않으며, 복구시에도 1부터 시작됨. network_weights의 구현 방식과 다름.
# 기타 설정
min_bucket_reso=256 # arb 최소 해상도
max_bucket_reso=1024 # arb 최대 해상도
persistent_data_loader_workers=0 # 영구 데이터로더 작업자. 메모리 과부하 주의. 데이터셋 로딩을 위해 작업자를 유지하여 각 에포크 간 정지 시간 줄임
clip_skip=2 # clip 스킵 | 오묘한 설정, 일반적으로 2 사용
# 최적화 알고리즘 설정
optimizer_type="Lion" # 최적화 알고리즘 유형 | 기본값은 AdamW8bit. 선택 가능: AdamW, AdamW8bit, Lion, SGDNesterov, SGDNesterov8bit, DAdaptation, AdaFactor
# LyCORIS 훈련 설정
algo="lora" # LyCORIS 네트워크 알고리즘 | 가능 옵션: lora, loha, lokr, ia3, dylora. lora는 locon과 동일함
conv_dim=4 # conv dim | network_dim과 유사. 추천 값은 4
conv_alpha=4 # conv alpha | network_alpha와 유사. conv_dim과 동일하거나 더 작은 값을 사용 가능
dropout="0" # dropout | 드롭아웃 확률. 0은 드롭아웃 미사용. 숫자가 클수록 더 많은 드롭아웃 발생. 추천 범위 0~0.5. LoHa/LoKr/(IA)^3는 현재 드롭아웃 미지원










