AstolfoXL
详情
下载文件
关于此版本
模型描述
AstolfoXL (1EP)
可能是第一个(也是唯一一个)采用高效参数微调并使用多GPU的独立完整微调模型。
Discord: "祝你好运".
技术规格
基础模型:AstolfoMix-XL,版本 255c
技术报告:ch06
训练指标(tensorboard):HF
数据集(图像 > latent):danbooru2024,e621_2024
数据集(标签 + 描述):meta_lat.json
1步 = 16张图像,4x RTX 3090 24G。
1EP 共77.8万步,8.0 + 4.6 = 1260万张图像
标签 + NLP 描述,采用A1111 token技巧
训练代码:PR不会被合并
训练参数:adamW8bit,UNET 1.5e-6,TE 1.2e-5,BS4(4 GPU)梯度累积4次,71% UNET(速度优先,必须欠拟合)
1EP 训练耗时 75-100+ 天。仅训练1EP。每1万步保存一次。
训练结果与损失曲线:HF中的Tensorboard
核心概念:无监督学习
期望效果:MID(100%无过滤,无质量标签)或“真实感”
使用方法
艺术家标签可能无效,但我确实训练过。直接把你的“NAI”提示词扔这儿就行。
使用TIPO基于NLP扩展标签提示词。
短标签会受背景latent噪声影响。标签可参考E621或danbooru。
所有图像仅被训练一次。没有任务或KPI可追求,也无全知状态被保留。损失曲线平坦,既不收敛也不发散。
完整文档将发布,篇幅与AstolfoMix系列相当。



















