Formidable (Azur Lane) | 可畏(碧蓝航线)

세부 정보

파일 다운로드

모델 설명

2023.05.30:

  • 피라미드 노이즈를 사용하여 이미지 품질을 향상시킴.

  • 이미지 품질을 향상시키기 위해 "Shifted Noise를 포함한 확산(Diffusion With Offset Noise)" 적용.

  • 허리 부착물의 피팅 정도를 강화하려 시도했으나, 얼굴이 없는 이미지가 생성될 확률이 증가함.

  • 허리 부착물의 피팅 정도를 강화하려 시도했으나, 얼굴이 없는 이미지가 생성될 확률이 증가함.

  • 얼굴이 없는 이미지가 나타날 경우, 부정적 프롬프트에 lower body를 추가해 보세요.

  • 얼굴이 없는 이미지가 나타날 경우, 부정적 프롬프트에 lower body를 추가해 보세요.

2023.04.22:

  • 텍스트 세트를 재검토하여 프롬프트의 정확도가 향상됨.

  • 텍스트 데이터 세트를 다시 검토하여 프롬프트 단어의 정확도가 향상됨.

  • 학습 스텝 수를 늘려 피팅 수준을 향상시킴.

  • 학습 스텝 수를 늘려 피팅 수준을 향상시킴.

2023.04.13:

이번이 처음으로 LoRA 학습을 해보는 것이기에, 문제가 생겼을 경우 해결 방법을 모를 수도 있습니다.

이번이 처음으로 LoRA 학습을 해보는 것이기에, 문제가 생겼을 경우 해결 방법을 모를 수도 있습니다.

크면 클수록 좋다.

크면 클수록 좋다.

🥵

학습 집합:

  • 반복 횟수 = 2

    • 클로즈업 = 10

    • 생검 = 10

    • 상반신 = 10

    • 하반신 = 10

    • 카우보이 셔트 = 10

    • 전신 = 10

    • 포즈 = 15

    • 기타 복장 = 10

    • 액세서리-허리 = 10

  • 반복 횟수 = 4

    • NSFW = 30

    • 치비 = 5

  • 이미지 수 = 130

  • 에포크 수 = 19

#!/bin/bash
# LoRA 학습 스크립트 by @Akegarasu

# 학습 데이터 경로 | 모델 및 이미지 설정
pretrained_model="./sd-models/model.ckpt"     # 기본 모델 경로
is_v2_model=0                                 # SD2.0 모델 | SD2.0 모델, 2.0 모델에서는 clip_skip 기본값이 무효화됨
parameterization=0                            # 파라미터화 | 해당 파라미터는 V2와 동기화하여 사용해야 하며 실험적 기능임
train_data_dir="./train/1.formidable-default" # 학습 데이터셋 경로
reg_data_dir=""                               # 정규화 이미지 경로 | 디폴트로 정규화 이미지를 사용하지 않음.

# 네트워크 설정 | 네트워크 설정
network_module="networks.lora" # 여기서 학습할 네트워크 종류를 설정함 (기본값: networks.lora, 즉 LoRA 학습). LyCORIS(LoCon, LoHa 등)를 학습하고 싶다면 이 값을 lycoris.kohya로 변경할 것
network_weights=""             # LoRA 네트워크의 사전 학습된 가중치 | 기존 LoRA 모델에서 이어지게 학습하고 싶다면 LoRA 모델 경로를 입력할 것
network_dim=32                 # 네트워크 차원 | 일반적으로 4~128 사용, 크다고 해서 항상 좋지는 않음
network_alpha=16               # 네트워크 알파 | 일반적으로 network_dim과 동일한 값을 사용하거나, 더 작은 값(예: network_dim의 절반) 사용해 오버플로우 방지. 디폴트 값은 1이며, 낮은 alpha는 학습률을 높여야 함

# 학습 관련 파라미터
resolution="768,768"  # 이미지 해상도 가로, 세로. 비정사각형도 가능하나 64의 배수여야 함.
batch_size=2          # 배치 크기
max_train_epoches=20  # 최대 학습 에포크 수
save_every_n_epochs=1 # N 에포크마다 저장

train_unet_only=0            # U-Net만 학습 | U-Net만 학습할 경우 성능은 희생되나 VRAM 사용량은 크게 감소함. 6GB VRAM에서는 활성화 가능
train_text_encoder_only=0    # 텍스트 인코더만 학습 | 텍스트 인코더만 학습
stop_text_encoder_training=0 # N단계에서 텍스트 인코더 학습 중단

# 노이즈 설정
noise_offset="0" # 노이즈 오프셋 | 학습 시 매우 어두운 또는 매우 밝은 이미지를 생성하는 것을 완화하기 위해 노이즈 오프셋 추가. 활성화 시 추천 값: 0.1
keep_tokens=2    # 토큰 셔플링 시 앞에서 N개의 토큰을 유지함
min_snr_gamma=0  # 최소 신호 대 잡음비(SNR) 값 (감마선) | 디폴트 값은 0

# 피라미드 노이즈
multires_noise_iterations=6 # 다중 해상도(피라미드) 노이즈 반복 횟수 | 추천값: 6~10. noise_offset과 동시에 사용 불가
multires_noise_discount=0.3 # 다중 해상도(피라미드) 감쇠율 | 추천값: 0.3. 위의 multires_noise_iterations와 함께 사용해야 함.

# 학습률
lr="3.5e-5"            # 3.5e-5 = 3.5 * 10^(-5) = 0.000035
unet_lr="3.5e-5"       # 3.5e-5 = 3.5 * 10^(-5) = 0.000035
text_encoder_lr="3e-6" # 3e-6 = 3.0 * 10^(-6) = 0.000003
lr_scheduler="cosine_with_restarts" # "linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup", "adafactor"
lr_warmup_steps=0                   # 학습률 웜업 스텝수 | lr_scheduler가 constant나 adafactor인 경우 0으로 설정해야 함.
lr_restart_cycles=1                 # cosine_with_restarts 재시작 사이클 수 | lr_scheduler가 cosine_with_restarts일 때만 유효

# 출력 설정
output_name="1.formidable-default" # 출력 모델 이름
save_model_as="safetensors"        # 모델 저장 형식 (ckpt, pt, safetensors)

# 학습 재개 설정
save_state=0 # 학습 상태 저장 | 상태 이름은 <output_name>-??????-state와 유사 (??????는 에포크 수를 의미) 
resume=""    # 특정 상태 폴더에서 학습 재개 | 위의 save_state와 함께 사용해야 함. 규칙 파일 제약으로 에포크 수 및 전역 스텝 수는 저장되지 않아, 복원 시에도 1부터 시작함. network_weights의 구현과 다름.

# 기타 설정
min_bucket_reso=256              # arb 최소 해상도
max_bucket_reso=1024             # arb 최대 해상도
persistent_data_loader_workers=0 # 지속적인 데이터로더 워커 | 메모리 과부하 유발 가능성 있음, 데이터셋 로드 워커 유지하여 에포크 간 정지 시간 감소
clip_skip=2                      # clip 건너뛰기 | 직관적, 일반적으로 2 사용

# 최적화기 설정
optimizer_type="Lion" # 최적화기 유형 | 기본값은 AdamW8bit, 옵션: AdamW, AdamW8bit, Lion, SGDNesterov, SGDNesterov8bit, DAdaptation, AdaFactor

# LyCORIS 학습 설정
algo="lora"  # LyCORIS 네트워크 알고리즘 | 옵션: lora, loha, lokr, ia3, dylora. lora는 locon과 동일한 의미
conv_dim=4   # 컨볼루션 차원 | network_dim과 유사, 추천값은 4
conv_alpha=4 # conv 알파 | network_alpha와 유사, conv_dim과 동일하거나 더 낮은 값을 사용 가능
dropout="0"  # 드롭아웃 | 드롭아웃 확률, 0은 드롭아웃 미사용, 값이 클수록 드롭아웃 많음, 추천값: 0~0.5. LoHa/LoKr/(IA)^3은 현재 미지원

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.