CCCP poster style
ファイルをダウンロード
このバージョンについて
{
"__version": 6,
"training_method": "LORA",
"model_type": "STABLE_DIFFUSION_XL_10_BASE",
"debug_mode": false,
"debug_dir": "debug",
"workspace_dir": "G:/OneTrainer/outputs",
"cache_dir": "workspace-cache/run",
"tensorboard": true,
"tensorboard_expose": false,
"tensorboard_port": 6007,
"validation": false,
"validate_after": 1,
"validate_after_unit": "EPOCH",
"continue_last_backup": false,
"include_train_config": "SETTINGS",
"base_model_name": "G:/stable-diffusion-webui-reForge/models/Stable-diffusion/illustrious/noobaiXLNAIXL_vPred10Version.safetensors",
"weight_dtype": "FLOAT_16",
"output_dtype": "BFLOAT_16",
"output_model_format": "SAFETENSORS",
"output_model_destination": "G:/OneTrainer/outputs/CCCPposter-NOOB-VPRED1.0-V1-128-drop0.1.safetensors",
"gradient_checkpointing": "ON",
"enable_async_offloading": true,
"enable_activation_offloading": true,
"layer_offload_fraction": 0.0,
"force_circular_padding": false,
"concept_file_name": "training_concepts/concepts.json",
"concepts": [
{
"__version": 1,
"image": {
"__version": 0,
"enable_crop_jitter": true,
"enable_random_flip": true,
"enable_fixed_flip": false,
"enable_random_rotate": false,
"enable_fixed_rotate": false,
"random_rotate_max_angle": 0.0,
"enable_random_brightness": false,
"enable_fixed_brightness": false,
"random_brightness_max_strength": 0.0,
"enable_random_contrast": false,
"enable_fixed_contrast": false,
"random_contrast_max_strength": 0.0,
"enable_random_saturation": false,
"enable_fixed_saturation": false,
"random_saturation_max_strength": 0.0,
"enable_random_hue": false,
"enable_fixed_hue": false,
"random_hue_max_strength": 0.0,
"enable_resolution_override": false,
"resolution_override": "512",
"enable_random_circular_mask_shrink": false,
"enable_random_mask_rotate_crop": false
},
"text": {
"__version": 0,
"prompt_source": "sample",
"prompt_path": "",
"enable_tag_shuffling": true,
"tag_delimiter": ",",
"keep_tags_count": 1,
"tag_dropout_enable": false,
"tag_dropout_mode": "FULL",
"tag_dropout_probability": 0.0,
"tag_dropout_special_tags_mode": "NONE",
"tag_dropout_special_tags": "",
"tag_dropout_special_tags_regex": false,
"caps_randomize_enable": false,
"caps_randomize_mode": "capslock, title, first, random",
"caps_randomize_probability": 0.0,
"caps_randomize_lowercase": false
},
"name": "",
"path": "G:/AI/sovposter_V2/10_s-m",
"seed": -166583343,
"enabled": true,
"validation_concept": false,
"include_subdirectories": false,
"image_variations": 1,
"text_variations": 1,
"balancing": 10.0,
"balancing_strategy": "REPEATS",
"loss_weight": 1.0
},
{
"__version": 1,
"image": {
"__version": 0,
"enable_crop_jitter": true,
"enable_random_flip": true,
"enable_fixed_flip": false,
"enable_random_rotate": false,
"enable_fixed_rotate": false,
"random_rotate_max_angle": 0.0,
"enable_random_brightness": false,
"enable_fixed_brightness": false,
"random_brightness_max_strength": 0.0,
"enable_random_contrast": false,
"enable_fixed_contrast": false,
"random_contrast_max_strength": 0.0,
"enable_random_saturation": false,
"enable_fixed_saturation": false,
"random_saturation_max_strength": 0.0,
"enable_random_hue": false,
"enable_fixed_hue": false,
"random_hue_max_strength": 0.0,
"enable_resolution_override": false,
"resolution_override": "512",
"enable_random_circular_mask_shrink": false,
"enable_random_mask_rotate_crop": false
},
"text": {
"__version": 0,
"prompt_source": "sample",
"prompt_path": "",
"enable_tag_shuffling": true,
"tag_delimiter": ",",
"keep_tags_count": 1,
"tag_dropout_enable": false,
"tag_dropout_mode": "FULL",
"tag_dropout_probability": 0.0,
"tag_dropout_special_tags_mode": "NONE",
"tag_dropout_special_tags": "",
"tag_dropout_special_tags_regex": false,
"caps_randomize_enable": false,
"caps_randomize_mode": "capslock, title, first, random",
"caps_randomize_probability": 0.0,
"caps_randomize_lowercase": false
},
"name": "",
"path": "G:/AI/sovposter_V2/10_s-o",
"seed": 586590013,
"enabled": true,
"validation_concept": false,
"include_subdirectories": false,
"image_variations": 1,
"text_variations": 1,
"balancing": 10.0,
"balancing_strategy": "REPEATS",
"loss_weight": 1.0
}
],
"aspect_ratio_bucketing": true,
"latent_caching": true,
"clear_cache_before_training": true,
"learning_rate_scheduler": "COSINE",
"custom_learning_rate_scheduler": null,
"scheduler_params": [],
"learning_rate": 1.0,
"learning_rate_warmup_steps": 0.0,
"learning_rate_cycles": 1.0,
"learning_rate_min_factor": 0.0,
"epochs": 10,
"batch_size": 2,
"gradient_accumulation_steps": 1,
"ema": "OFF",
"ema_decay": 0.999,
"ema_update_step_interval": 5,
"dataloader_threads": 2,
"train_device": "cuda",
"temp_device": "cpu",
"train_dtype": "BFLOAT_16",
"fallback_train_dtype": "BFLOAT_16",
"enable_autocast_cache": true,
"only_cache": false,
"resolution": "1024",
"frames": "25",
"mse_strength": 1.0,
"mae_strength": 0.0,
"log_cosh_strength": 0.0,
"vb_loss_strength": 1.0,
"loss_weight_fn": "CONSTANT",
"loss_weight_strength": 5.0,
"dropout_probability": 0.1,
"loss_scaler": "NONE",
"learning_rate_scaler": "NONE",
"clip_grad_norm": 1.0,
"offset_noise_weight": 0.0,
"perturbation_noise_weight": 0.0,
"rescale_noise_scheduler_to_zero_terminal_snr": true,
"force_v_prediction": false,
"force_epsilon_prediction": false,
"min_noising_strength": 0.0,
"max_noising_strength": 1.0,
"timestep_distribution": "LOGIT_NORMAL",
"noising_weight": 0.2,
"noising_bias": 0.0,
"timestep_shift": 1.0,
"dynamic_timestep_shifting": false,
"unet": {
"__version": 0,
"model_name": "",
"include": true,
"train": true,
"stop_training_after": 0,
"stop_training_after_unit": "NEVER",
"learning_rate": null,
"weight_dtype": "NONE",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"prior": {
"__version": 0,
"model_name": "",
"include": true,
"train": true,
"stop_training_after": 0,
"stop_training_after_unit": "NEVER",
"learning_rate": null,
"weight_dtype": "NONE",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"text_encoder": {
"__version": 0,
"model_name": "",
"include": true,
"train": false,
"stop_training_after": 20,
"stop_training_after_unit": "NEVER",
"learning_rate": null,
"weight_dtype": "NONE",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"text_encoder_layer_skip": 0,
"text_encoder_2": {
"__version": 0,
"model_name": "",
"include": true,
"train": false,
"stop_training_after": 20,
"stop_training_after_unit": "NEVER",
"learning_rate": null,
"weight_dtype": "NONE",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"text_encoder_2_layer_skip": 0,
"text_encoder_3": {
"__version": 0,
"model_name": "",
"include": true,
"train": true,
"stop_training_after": 30,
"stop_training_after_unit": "EPOCH",
"learning_rate": null,
"weight_dtype": "NONE",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"text_encoder_3_layer_skip": 0,
"vae": {
"__version": 0,
"model_name": "",
"include": true,
"train": true,
"stop_training_after": null,
"stop_training_after_unit": "NEVER",
"learning_rate": null,
"weight_dtype": "FLOAT_32",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"effnet_encoder": {
"__version": 0,
"model_name": "",
"include": true,
"train": true,
"stop_training_after": null,
"stop_training_after_unit": "NEVER",
"learning_rate": null,
"weight_dtype": "NONE",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"decoder": {
"__version": 0,
"model_name": "",
"include": true,
"train": true,
"stop_training_after": null,
"stop_training_after_unit": "NEVER",
"learning_rate": null,
"weight_dtype": "NONE",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"decoder_text_encoder": {
"__version": 0,
"model_name": "",
"include": true,
"train": true,
"stop_training_after": null,
"stop_training_after_unit": "NEVER",
"learning_rate": null,
"weight_dtype": "NONE",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"decoder_vqgan": {
"__version": 0,
"model_name": "",
"include": true,
"train": true,
"stop_training_after": null,
"stop_training_after_unit": "NEVER",
"learning_rate": null,
"weight_dtype": "NONE",
"dropout_probability": 0.0,
"train_embedding": true,
"attention_mask": false,
"guidance_scale": 1.0
},
"masked_training": false,
"unmasked_probability": 0.1,
"unmasked_weight": 0.1,
"normalize_masked_area_loss": false,
"embedding_learning_rate": null,
"preserve_embedding_norm": false,
"embedding": {
"__version": 0,
"uuid": "491c91cb-4f84-4282-b0e2-cdc342cf8ea2",
"model_name": "",
"placeholder": "<embedding>",
"train": true,
"stop_training_after": null,
"stop_training_after_unit": "NEVER",
"token_count": 1,
"initial_embedding_text": "*",
"is_output_embedding": false
},
"additional_embeddings": [],
"embedding_weight_dtype": "FLOAT_32",
"cloud": {
"__version": 0,
"enabled": false,
"type": "RUNPOD",
"file_sync": "NATIVE_SCP",
"create": true,
"name": "OneTrainer",
"tensorboard_tunnel": true,
"sub_type": "COMMUNITY",
"gpu_type": "NVIDIA GeForce RTX 4090",
"volume_size": 100,
"min_download": 0,
"remote_dir": "/workspace",
"huggingface_cache_dir": "/workspace/huggingface_cache",
"onetrainer_dir": "/workspace/OneTrainer",
"install_cmd": "git clone https://github.com/Nerogar/OneTrainer",
"install_onetrainer": true,
"update_onetrainer": true,
"detach_trainer": false,
"run_id": "job1",
"download_samples": true,
"download_output_model": true,
"download_saves": true,
"download_backups": false,
"download_tensorboard": false,
"delete_workspace": false,
"on_finish": "NONE",
"on_error": "NONE",
"on_detached_finish": "NONE",
"on_detached_error": "NONE"
},
"peft_type": "LORA",
"lora_model_name": "",
"lora_rank": 128,
"lora_alpha": 64.0,
"lora_decompose": false,
"lora_decompose_norm_epsilon": false,
"lora_weight_dtype": "BFLOAT_16",
"lora_layers": "attentions",
"lora_layer_preset": "attn-mlp",
"bundle_additional_embeddings": true,
"optimizer": {
"__version": 0,
"optimizer": "PRODIGY",
"adam_w_mode": false,
"alpha": null,
"amsgrad": false,
"beta1": 0.9,
"beta2": 0.999,
"beta3": null,
"bias_correction": false,
"block_wise": false,
"capturable": false,
"centered": false,
"clip_threshold": null,
"d0": 1e-06,
"d_coef": 1.0,
"dampening": null,
"decay_rate": null,
"decouple": true,
"differentiable": false,
"eps": 1e-08,
"eps2": null,
"foreach": false,
"fsdp_in_use": false,
"fused": false,
"fused_back_pass": false,
"growth_rate": "inf",
"initial_accumulator_value": null,
"initial_accumulator": null,
"is_paged": false,
"log_every": null,
"lr_decay": null,
"max_unorm": null,
"maximize": false,
"min_8bit_size": null,
"momentum": null,
"nesterov": false,
"no_prox": false,
"optim_bits": null,
"percentile_clipping": null,
"r": null,
"relative_step": false,
"safeguard_warmup": true,
"scale_parameter": false,
"stochastic_rounding": true,
"use_bias_correction": false,
"use_triton": false,
"warmup_init": false,
"weight_decay": 0.0,
"weight_lr_power": null,
"decoupled_decay": false,
"fixed_decay": false,
"rectify": false,
"degenerated_to_sgd": false,
"k": null,
"xi": null,
"n_sma_threshold": null,
"ams_bound": false,
"adanorm": false,
"adam_debias": false,
"slice_p": 11,
"cautious": false
},
"optimizer_defaults": {
"PRODIGY": {
"__version": 0,
"optimizer": "PRODIGY",
"adam_w_mode": false,
"alpha": null,
"amsgrad": false,
"beta1": 0.9,
"beta2": 0.999,
"beta3": null,
"bias_correction": false,
"block_wise": false,
"capturable": false,
"centered": false,
"clip_threshold": null,
"d0": 1e-06,
"d_coef": 1.0,
"dampening": null,
"decay_rate": null,
"decouple": true,
"differentiable": false,
"eps": 1e-08,
"eps2": null,
"foreach": false,
"fsdp_in_use": false,
"fused": false,
"fused_back_pass": false,
"growth_rate": "inf",
"initial_accumulator_value": null,
"initial_accumulator": null,
"is_paged": false,
"log_every": null,
"lr_decay": null,
"max_unorm": null,
"maximize": false,
"min_8bit_size": null,
"momentum": null,
"nesterov": false,
"no_prox": false,
"optim_bits": null,
"percentile_clipping": null,
"r": null,
"relative_step": false,
"safeguard_warmup": true,
"scale_parameter": false,
"stochastic_rounding": true,
"use_bias_correction": false,
"use_triton": false,
"warmup_init": false,
"weight_decay": 0.0,
"weight_lr_power": null,
"decoupled_decay": false,
"fixed_decay": false,
"rectify": false,
"degenerated_to_sgd": false,
"k": null,
"xi": null,
"n_sma_threshold": null,
"ams_bound": false,
"adanorm": false,
"adam_debias": false,
"slice_p": 11,
"cautious": false
}
},
"sample_definition_file_name": "training_samples/samples.json",
"samples": [],
"sample_after": 1,
"sample_after_unit": "EPOCH",
"sample_skip_first": 0,
"sample_image_format": "JPG",
"sample_video_format": "MP4",
"sample_audio_format": "MP3",
"samples_to_tensorboard": true,
"non_ema_sampling": true,
"backup_after": 10,
"backup_after_unit": "NEVER",
"rolling_backup": false,
"rolling_backup_count": 3,
"backup_before_save": false,
"save_every": 1,
"save_every_unit": "EPOCH",
"save_skip_first": 0,
"save_filename_prefix": "CCCPposter-NOOB-VPRED1.0-V1-128-drop0.1"
}
モデル説明
NOOB V-PRED 2.0について
NOOB V-PRED V1.0を基にOneTrainerで訓練しています。
トレーニングデータセットを絞り込み、トレーニング回数を増やして、より良い色彩と効果を実現しました。
NOOBがこのアートスタイルをうまく理解できていないため、style-abstractは削除しました。
具体的なトレーニング詳細は右側のバージョン関連を参照してください。
About NOOB V-PRED 2.0
NOOB V-PRED V1.0を基にOneTrainerでトレーニング。
トレーニングデータセットをフィルタリングし、トレーニング回数を増やすことで、より良い色調と効果を達成。
style-abstractはNOOBがこのタイプのアートスタイルを理解できていないため、トリガーワードs-oは削除しました。
詳細なトレーニング詳細は右側の関連バージョンを参照してください。
NOOB V-PRED V1.0について
NOOB V-PRED V1.0を基に訓練しています。
トレーニングデータを減らすことで、より良い効果を得ました。特にモノクロ表現が向上しています。
トリガーワードを細分化し、異なるアートスタイルを生成できるようにしています。s-aはstyle-abstract、s-oはstyle-oil painting、s-mはstyle-monochromeを意味します。
具体的なトレーニング詳細は右側のバージョン関連を参照してください。
About NOOB V-PRED V1.0
NOOB V-PRED V1.0を基に訓練。
トレーニングデータを減らして、より良い効果を実現しました。特にモノクロ表現が向上しています。
トリガーワードを細分化し、異なるアートスタイルを生成できるようにしています。s-aはstyle-abstract、s-oはstyle-oil painting、s-mはstyle-monochromeを意味します。
より美的な表現を求める場合、NOOB V-PRED 0.5を生成モデルとして推奨します。
具体的なトレーニング詳細は右側の「About」バージョンを参照してください。
NOOB E-PRED V1.0について
NOOB E-PRED V1.0を基に訓練しています。
トレーニングデータを再収集し、トリガーワードを細分化して、異なるアートスタイルを生成できるようにしました。s-aはstyle-abstract、s-oはstyle-oil painting、s-mはstyle-monochromeを意味します。
より美的な仕上がりを求める場合、NOOB V-PRED 0.5を生成モデルとして推奨します。
具体的なトレーニング詳細は右側のバージョン関連を参照してください。
About NOOB E-PRED V1.0
NOOB E-PRED V1.0を基に訓練。
トレーニングデータを再収集し、トリガーワードを細分化して、異なるアートスタイルを生成できるようにしました。s-aはstyle-abstract、s-oはstyle-oil painting、s-mはstyle-monochromeを意味します。
より美的な表現を求める場合、NOOB V-PRED 0.5を生成モデルとして推奨します。
具体的なトレーニング詳細は右側の「About」バージョンを参照してください。
PonyXL-experimentalについて
PonyXLをベースモデルとしてトレーニングを試みましたが、3.0にやや近づいたものの、画像の細部に質感が不足しています。現在、より良いバージョンの探索中です。トレーニングパラメータはバージョン関連にてご確認ください。
About the PonyXL experimental
PonyXLをベースモデルとしてトレーニングを試行した結果、3.0に僅かに近づいたものの、画像の細部に質感が不足しています。現在、より良いバージョンの開発を継続中です。トレーニングパラメータについては「About」バージョンを参照してください。
3.0について
3.0バージョンでは、マルチリゾリューションノイズ技術(ピラミッドノイズ)を使用。正則化を適用せず、すべての画像をトレーニングに使用しました。
光と影の効果が強くなったように見え、規則的な物体の描画もより感度が高くなりました。欠点は建物を描くことが好まれる傾向があること。人物描画の場合は、1girlまたは1maleの重みを増やす必要があります。
トレーニングパラメータは以下の通りです:
multires_noise_iterations="6"
multires_noise_discount=0.3
導入
このモデルは、ソ連ポスター風のアートスタイルに特化したLyCORISです。重みが低いとモデル本来のスタイルに近くなり、重みが高いとポスター風のスタイルに近づきます。
現状では二次元モデルでのみテストしています。主にAOM3AやviewerMixをテスト対象とし、良好な結果を得ています。リアルなモデルで使用した場合、元のポスター風に近い表現が得られる可能性があります。
トレーニングパラメータ
NAI Finalをベースモデルとして使用。トレーニングデータとして36枚の画像を、リグレッション用に35枚を使用。トレーニング前に鏡像増強を実施。各画像を10回繰り返し10エポック分のトレーニングを行い、最終ステップ数は約7000ステップ。主なパラメータは以下の通りです:
network_dim=32
network_alpha=32
keep_tokens=4
conv_dim=4
conv_alpha=4
lr="1e-4"
unet_lr="1e-4"
text_encoder_lr="1e-5"
batch_size = 2








