q7-Illustrious-CG-milf-style

详情

下载文件

模型描述

注意:强烈建议启用 ADetiler 来修复面部细节。

关于此版本

如你所见,此模型已更新。灵感源自一张吸引我的瓷偶纹理图像,因此我通过模型融合、LoRA 混合以及一些细微调整,尝试重现我理想中的效果。严格来说,结果更偏向写实风格——但这并不重要,重要的是你们是否喜欢。

顺便说一句,我认为这个“漏洞”(更准确地说,是对逻辑错误的临时修复)实际上是一种灵感来源——即使修复方法本身略显粗糙。本帖其余部分将主要解释该漏洞,以及如何用一种直接但有效的方式绕过它。

## 一、漏洞成因
SuperMerger 的 network_lora.py 代码中的核心问题包括:

  1. 类型判断逻辑混乱:原代码错误地将 MultiheadAttention(SDXL 的 TE2 层核心类型)归入 is_linear(线性层)判断。然而,MultiheadAttention 是一个复合模块,包含多个子线性层,将其视为普通线性层处理极易引发类型不兼容。
  2. 缺乏针对性适配:代码对 MultiheadAttention 层没有任何独立处理逻辑。当遇到 SDXL LoRA 中的 TE2 层时,直接抛出“不支持的层类型”错误,导致包含 TE2 层的 LoRA 无法合并。

二、解决方案

  1. 拆分类型判断:新增明确的 is_multihead_attn 检查,将 MultiheadAttentionis_linear 中移除,并优先处理这种复合层,避免逻辑冲突。
  2. 适配复合层结构:检测到 MultiheadAttention 层时,通过 weight.reshape 调整 LoRA 权重形状,并创建兼容的线性层以接收权重,确保 TE2 层可正常加载。
  3. 增强错误验证:增加权重形状有效性检查,若 reshape 失败则抛出详细错误(包含目标/实际形状),并统一错误处理逻辑,便于问题定位。

优化后的代码在不损害原有线性/卷积层功能的前提下,支持 SDXL 的 TE2 层 LoRA,降低了隐藏漏洞的风险。

以下是你可添加的建议提示词片段,可自由调整权重或措辞:

正向提示(添加至主提示)
masterpiece,ultra-HD,best quality,high resolution,ultra detailed,intricate,sharp focus,8k,high definition,detailed texture,aesthetic,Regular layout,SmoothNoob_Quality,

负向提示(添加至负向提示)
worst quality, low quality, displeasing, text, watermark, bad anatomy,blurry,text, artist name, signature, deformed hands, missing finger,

此模型生成的图像

未找到图像。