Happy Meek (Happy Mik) (Umamusume)
详情
下载文件
关于此版本
模型描述
基于 72 张粉丝艺术作品,一个来自《赛马娘: Pretty Derby》的 Happy Meek(官方音译:Happy Mik) 的 LoRA 模型。
这是在探索“一个角色值多少字节”这一问题时的副产品。其大小可能小于 1MB。
提供 4 个版本:
- Rank-1 LoRA
- Rank-4 LoRA
- Rank-16 LoRA
- Rank-4 Hadamard Product LoRA
(目前 Civitai 的版本化模型上传功能对我不可用,因此 4 个版本目前仅在 hf 仓库 中提供)
目前尚无明显优胜者。但这些是未经过超参数调优的 n=1 实验结果,因此结果可能不具备代表性。更高秩的版本在表现多种服装时似乎略胜一筹。
使用说明
角色标签为 mik。
相关性较高的标签:
1girl, animal ears, horse ears, solo, hair ornament, flower, hair flower, hairclip, looking at viewer, shirt, horse girl, short sleeves, pink eyes, medium hair, bow, blush, tail, blunt bangs, horse tail, puffy sleeves, puffy short sleeves, skirt, closed mouth, upper body, gloves, bowtie, white shirt, white gloves, jacket, pleated skirt, white jacket, twitter username, grey hair, brooch, jewelry, vest, simple background, artist name, short hair, red eyes
如需特定服装的参考,请查看预览图或数据集。
训练信息
数据集:来自 Danbooru 和 Pixiv 的 72 张粉丝艺术图
非 Booru 图像使用 SmilingWolf/wd-v1-4-convnextv2-tagger-v2 进行标注,阈值设为 0.35。
训练成本:约每项 0.5 T4 小时
训练配置(除 dims 设置外其余通用):
[model_arguments]
v2 = false
v_parameterization = false
pretrained_model_name_or_path = "Animefull-final-pruned.ckpt"
[additional_network_arguments]
no_metadata = false
unet_lr = 0.0005
text_encoder_lr = 0.0005
network_dim = 4
network_alpha = 1
network_train_unet_only = false
network_train_text_encoder_only = false
[optimizer_arguments]
optimizer_type = "AdamW8bit"
learning_rate = 0.0005
max_grad_norm = 1.0
lr_scheduler = "cosine"
lr_warmup_steps = 0
[dataset_arguments]
debug_dataset = false
[training_arguments]
save_precision = "fp16"
save_every_n_epochs = 1
train_batch_size = 4
max_token_length = 225
mem_eff_attn = false
xformers = true
max_train_epochs = 50
max_data_loader_n_workers = 8
persistent_data_loader_workers = true
gradient_checkpointing = false
gradient_accumulation_steps = 1
mixed_precision = "fp16"
clip_skip = 2
lowram = true
[sample_prompt_arguments]
sample_every_n_epochs = 2
sample_sampler = "k_euler_a"
[saving_arguments]
save_model_as = "safetensors"




