SRPO LoRAs
详情
下载文件
模型描述
这些 LoRA 模型源自三个来源:
- 官方 = 原始 SRPO(Flux.1-Dev):tencent/SRPO
- 社区检查点:rockerBOO/flux.1-dev-SRPO(目前这些 LoRA 尚未在此处的 CivitAI 发布,但可在 Hugging Face 上找到)
- R&Q = 社区检查点(量化/优化):wikeeyang/SRPO-Refine-Quantized-v1.0
这些 LoRA 设计为模块化、轻量级的适配器,可与其他 LoRA 混合使用,从而减少存储占用,并支持在不同秩(8、16、32、64、128)间快速实验。
你可以选择以下多个秩:8、16、32、64 或 128。较低的秩更轻量、运行更快;较高的秩能保留更多细节。
⚠️ 注意:根据你选择的量化模型作为基础,你可能需要调整 LoRA 强度。我个人在使用 flux1-dev-SRPO-Q&R r128 时获得了非常好的效果。有时可能需要将强度提高到 1.0 以上,例如 1.1 或 1.2。
请注意,所需的强度会因你使用的量化模型而异。例如,我的测试基于 GGUF Q8 版本,但其他 Flux Dev 量化版本可能需要不同的调整。
推荐用于评估模型差异的配置如下:
- 采样器:Euler
- 调度器:Beta
- 步数:50
- CFG:1.0
此设置有助于更清晰地观察不同模型间的差异。
若你希望结果之间更加接近,可尝试:
- 采样器:Euler
- 调度器:Beta
- 步数:25
- CFG:1.0
这些设置仍需进一步测试,但目前表现出了良好的一致性。
这些 LoRA 完全模块化 —— 你可以与其他 LoRA 混合使用,自由调整其强度,甚至将其合并到其他模型中。
未在此处发布的其他模型可在 Hugging Face 上找到:此处
🙏 致谢与许可
SRPO 由腾讯开发 → tencent/SRPO
Flux.1-Dev 由 Black Forest Labs 开发(依据 FLUX.1 [dev] 非商业许可授权)
⚠️ 重要声明
这些 LoRA 仅用于研究和个人非商业用途,符合 SRPO 和 Flux.1-Dev 的许可协议。
本项目是对 LoRA 的独立提取与调整,与腾讯或 Black Forest Labs 无任何隶属或背书关系。




