Flux Block Weight Remerger - Tool
详情
下载文件
关于此版本
模型描述
我找不到任何工具可以保存经过调整的块权重的LoRa,因此我自己开发了一个。
一个用于过滤、调整和可选地从LoRa中移除Flux块权重的Python工具。
注意:我不是开发者,因此这个实现可能有误,全部基本是通过引导ChatGPT完成的。
https://github.com/diodiogod/Flux-Block-Weight-Remerger
功能
调整权重:根据提供的值(19或57个以逗号分隔的数值)调整块和层的权重。参见:nihedon/sd-webui-lora-block-weight#2 (comment)
清零权重:可选地移除权重被设为零的层。
我不确定移除是否会导致问题,默认保留所有层。
过滤层:基于关键词选择并调整特定层:'lora_B'、'lora_A'、'proj_mlp'、'proj_out'、'attn'、'norm' —— 默认为所有'lora_B'层。
我不确定这是否正确,但在我的测试中,这给出了与在Forge或ComfyUi中调整块权重最接近的结果。
预设:您可以在preset_options.txt文件中保存任意数量的预设,支持19或57格式。
日志:将所有已调整的LoRa记录在log.csv文件中。
Windows_start.bat:自动安装、更新并运行

