Furukawa Nagisa (CLANNAD) | 古河渚(CLANNAD)

세부 정보

파일 다운로드

모델 설명

「만약 괜찮으시다면… 제가… 이 마을의 소원이 이루어지는 곳으로 당신을 데려가드릴까요?」

서문:

이것은 LoRA 모델 훈련 튜토리얼을 위해 제작된 LoRA입니다. 훈련 프로젝트는 튜토리얼에서 제공됩니다.

이것이 제가 처음으로 모델 훈련 관련 튜토리얼을 작성하는 것이므로, 잘못된 점이나 제안이 있다면 지적해 주시기 바랍니다.

2023.06.05:

  • 피라미드 노이즈를 사용하여 이미지 품질을 향상시켰습니다.

  • Applying "Diffusion With Offset Noise" to enhance image quality.

  • 가을 캐주얼과 여름 캐주얼을 추가했으나, 캐주얼에 약간의 융합 현상이 발생했으며, 유사한 옷차림에 대해 다양한 정도의 오염이 발생했습니다.

  • Add autumn and summer school uniforms, with the cost of some blending effects on the uniforms, and varying degrees of contamination on similar outfits.

  • 캐릭터가 가을 캐주얼을 입도록 하려면, yellow jacket, blue skirt와 같은 추가 태그를 사용하여 안내해 보세요.

  • If you want characters wearing autumn school uniforms, try adding additional tags such as yellow jacket and blue skirt for guidance.

  • 캐릭터가 여름 캐주얼을 입도록 하려면, white serafuku, suspender skirt와 같은 추가 태그를 사용하여 안내해 보세요.

  • If you want characters wearing summer school uniforms, try adding additional tags such as white serafuku and suspender skirt for guidance.

훈련 데이터셋:

  • 반복 횟수 = 2

    • autumn_school_uniform = 60

    • summer_school_uniform = 60

    • other_clothes = 20

    • chibi = 5

    • doll_hug = 5

    • nsfw = 5

  • 반복 횟수 = 4

    • doll_dango = 10
  • 이미지 수 = 165

  • 에포크 수 = 17

#!/bin/bash
# LoRA train script by @Akegarasu
​
# Train data path | 설정: 훈련 모델 및 이미지
pretrained_model="./sd-models/model.ckpt" # base model path | 기본 모델 경로
is_v2_model=0                             # SD2.0 model | SD2.0 모델. 2.0 모델 사용 시 clip_skip 기본값 무효
parameterization=0                        # parameterization | 파라미터화. 이 값은 V2와 동기화해서 사용해야 함. 실험용 기능
train_data_dir="./train/furukawa-nagisa"  # train dataset path | 훈련 데이터 경로
reg_data_dir=""                           # directory for regularization images | 정규화 이미지 경로. 기본적으로 정규화 이미지를 사용하지 않음.
​
# Network settings | 네트워크 설정
network_module="networks.lora" # 여기서 훈련할 네트워크 유형 설정. 기본값은 networks.lora (LoRA 훈련). LyCORIS (LoCon, LoHa 등)를 훈련하고 싶다면 이 값을 lycoris.kohya로 수정
network_weights=""             # pretrained weights for LoRA network | 기존 LoRA 모델로부터 계속 훈련하고 싶다면 LoRA 모델 경로 입력
network_dim=32                 # network dim | 일반적으로 4~128 사용. 너무 크게 하지 말 것
network_alpha=16               # network alpha | network_dim와 동일한 값이나 그 절반 정도의 값을 사용하는 것이 일반적. 하향 오류 방지. 기본값은 1. 작은 alpha 사용 시 학습률을 높여야 함
​
# Train related params | 훈련 관련 파라미터
resolution="768,768"  # 이미지 해상도 w,h. 이미지 크기, 너비, 높이. 정사각형이 아니어도 됨. 단 64의 배수여야 함.
batch_size=2          # 배치 크기
max_train_epoches=20  # 최대 훈련 에포크 수 | maximum training epochs
save_every_n_epochs=1 # n 에포크마다 저장 | x 에포크마다 모델 저장
​
train_unet_only=0            # U-Net만 훈련 | U-Net만 훈련. 이 옵션을 켜면 성능이 약간 떨어지지만 VRAM 사용량을 크게 줄일 수 있음. 6G VRAM 이상 시 사용 가능
train_text_encoder_only=0    # 텍스트 인코더만 훈련 | 텍스트 인코더만 훈련
stop_text_encoder_training=0 # N단계에서 텍스트 인코더 훈련 중단 | 텍스트 인코더 훈련을 특정 단계 이후 중지

# 노이즈
noise_offset="0" # 노이즈 오프셋 | 이미지가 매우 어둡거나 매우 밝게 생성되는 현상을 개선하기 위해 훈련 중 노이즈 오프셋을 추가. 사용 시 추천 값은 0.1
keep_tokens=2    # 타이틀(캡션) 토큰을 무작위로 재정렬할 때 앞에서 N개 토큰을 고정 유지
min_snr_gamma=0  # 최소 신호 대 잡음비 (SNR) 값. 기본값 0
​
multires_noise_iterations=6 # 다중 해상도(피라미드) 노이즈 반복 횟수. 추천 값 6-10. noise_offset 옵션과 함께 사용 불가
multires_noise_discount=0.3 # 다중 해상도(피라미드) 감쇠 비율. 추천 값 0.3. 위의 multires_noise_iterations와 함께 사용해야 함.

# 학습률
lr="3.5e-5"            # 3.5e-5=3.5*10^(-5)=0.000035
unet_lr="3.5e-5"       # 3.5e-5=3.5*10^(-5)=0.000035
text_encoder_lr="3e-6" #   3e-6=3.0*10^(-6)=0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0                   # 워밍업 스텝 수 | 학습률 예열 스텝 수. lr_scheduler가 constant 또는 adafactor일 경우 0으로 설정해야 함.
lr_restart_cycles=1                 # cosine_with_restarts 재시작 사이클 수 | cosine_with_restarts일 때만 유효함.
​
# 출력 설정
output_name="furukawa-nagisa" # 출력 모델 이름 | 모델 저장 이름
save_model_as="safetensors"   # 모델 저장 형식 | 지원 형식: ckpt, pt, safetensors
​
# 훈련 재개 설정
save_state=0 # 상태 저장 | 상태 저장 이름은 <output_name>-??????-state. ??????는 에포크 수를 의미. 이 값은 상태 복구 시에도 1부터 시작됨. 확실하게 잠금 아님.
resume=""    # 상태 파일 폴더로부터 훈련 재개 | 위의 save_state와 함께 사용. 파일 규격 문제로 인해 에포크 수와 글로벌 스텝 수는 저장되지 않으며, 복구시에도 1부터 시작됨. network_weights의 구현 방식과 다름.
​
# 기타 설정
min_bucket_reso=256              # arb 최소 해상도
max_bucket_reso=1024             # arb 최대 해상도
persistent_data_loader_workers=0 # 영구 데이터로더 작업자. 메모리 과부하 주의. 데이터셋 로딩을 위해 작업자를 유지하여 각 에포크 간 정지 시간 줄임
clip_skip=2                      # clip 스킵 | 오묘한 설정, 일반적으로 2 사용
​
# 최적화 알고리즘 설정
optimizer_type="Lion" # 최적화 알고리즘 유형 | 기본값은 AdamW8bit. 선택 가능: AdamW, AdamW8bit, Lion, SGDNesterov, SGDNesterov8bit, DAdaptation, AdaFactor
​
# LyCORIS 훈련 설정
algo="lora"  # LyCORIS 네트워크 알고리즘 | 가능 옵션: lora, loha, lokr, ia3, dylora. lora는 locon과 동일함
conv_dim=4   # conv dim | network_dim과 유사. 추천 값은 4
conv_alpha=4 # conv alpha | network_alpha와 유사. conv_dim과 동일하거나 더 작은 값을 사용 가능
dropout="0"  # dropout | 드롭아웃 확률. 0은 드롭아웃 미사용. 숫자가 클수록 더 많은 드롭아웃 발생. 추천 범위 0~0.5. LoHa/LoKr/(IA)^3는 현재 드롭아웃 미지원

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.