mania - concept trained without data (local install tutorial - technical)
详情
下载文件
模型描述
使用 https://github.com/ntc-ai/conceptmod 通过 "#:0.41|~maniacal laughter:0.2|^maniacal laughter:0.05" 训练了 2000 步
动画使用 LoRA 值从 0.0 到 1.8。所有示例均使用触发短语:“maniacal laughter”
词语是被遗忘名字的苍白影子。既然名字具有力量,词语也具有力量。词语能在人们心中点燃火焰,稳定扩散模型。
教程:
本教程为技术性说明。如需更简单的路径,请参考 /model/58873/conceptmod-tutorial-fire-train-any-lora-with-just-text-no-data-required,并在 runpod 上运行。价格低廉,训练模型仅需 $5,生成动画不足 $1。
**
本地安装(技术性)**
需 20 GB 显存
0) 安装 a111
git clone https://github.com/ntc-ai/conceptmod.git
cd conceptmod
编辑 train_sequential.sh 并添加你的训练短语(见上文)
安装依赖项(参见 https://github.com/ntc-ai/conceptmod#installation-guide)和 ImageReward https://github.com/THUDM/ImageReward
使用
bash train_sequential.sh训练模型(耗时较长)成功训练后,你将在
models目录中保存新的检查点,若已在samples目录中启用,训练期间会生成样本。将模型移至 a111 的模型路径:
`mv -v models/*/*.ckpt ../stable-diffusion-webui2/models/Stable-diffusion/0new`使用 sd-scripts https://github.com/kohya-ss/sd-scripts 提取 LoRA(需新建 conda 环境)
以下是我在目录中提取所有模型 LoRA 的脚本。请替换其中的 dir 和 basemodel 为你自己的路径。在 sd-scripts 项目中运行此脚本:
https://github.com/ntc-ai/conceptmod/blob/main/extract_lora.sh使用 '--api' 参数启动 a111 webui.py
创建动画
我使用了:
> python3 lora_anim.py -s -0.0 -e 1.8 -l "mania" -lp ", maniacal laughter" -np "nipples, weird image." -n 32 -sd 7 -m 2.0
如果你用这个生成了内容,请记得标记为 'conceptmod'
-
