q7-Illustrious-CG-milf-style
详情
下载文件
关于此版本
模型描述
注意:强烈建议启用 ADetiler 来修复面部细节。
关于此版本
如你所见,此模型已更新。灵感源自一张吸引我的瓷偶纹理图像,因此我通过模型融合、LoRA 混合以及一些细微调整,尝试重现我理想中的效果。严格来说,结果更偏向写实风格——但这并不重要,重要的是你们是否喜欢。
顺便说一句,我认为这个“漏洞”(更准确地说,是对逻辑错误的临时修复)实际上是一种灵感来源——即使修复方法本身略显粗糙。本帖其余部分将主要解释该漏洞,以及如何用一种直接但有效的方式绕过它。
## 一、漏洞成因
SuperMerger 的 network_lora.py 代码中的核心问题包括:
- 类型判断逻辑混乱:原代码错误地将
MultiheadAttention(SDXL 的 TE2 层核心类型)归入is_linear(线性层)判断。然而,MultiheadAttention是一个复合模块,包含多个子线性层,将其视为普通线性层处理极易引发类型不兼容。 - 缺乏针对性适配:代码对
MultiheadAttention层没有任何独立处理逻辑。当遇到 SDXL LoRA 中的 TE2 层时,直接抛出“不支持的层类型”错误,导致包含 TE2 层的 LoRA 无法合并。
二、解决方案
- 拆分类型判断:新增明确的
is_multihead_attn检查,将MultiheadAttention从is_linear中移除,并优先处理这种复合层,避免逻辑冲突。 - 适配复合层结构:检测到
MultiheadAttention层时,通过weight.reshape调整 LoRA 权重形状,并创建兼容的线性层以接收权重,确保 TE2 层可正常加载。 - 增强错误验证:增加权重形状有效性检查,若
reshape失败则抛出详细错误(包含目标/实际形状),并统一错误处理逻辑,便于问题定位。
优化后的代码在不损害原有线性/卷积层功能的前提下,支持 SDXL 的 TE2 层 LoRA,降低了隐藏漏洞的风险。
以下是你可添加的建议提示词片段,可自由调整权重或措辞:
正向提示(添加至主提示)
masterpiece,ultra-HD,best quality,high resolution,ultra detailed,intricate,sharp focus,8k,high definition,detailed texture,aesthetic,Regular layout,SmoothNoob_Quality,
负向提示(添加至负向提示)
worst quality, low quality, displeasing, text, watermark, bad anatomy,blurry,text, artist name, signature, deformed hands, missing finger,















