mania - concept trained without data (local install tutorial - technical)

详情

下载文件

模型描述

使用 https://github.com/ntc-ai/conceptmod 通过 "#:0.41|~maniacal laughter:0.2|^maniacal laughter:0.05" 训练了 2000 步

动画使用 LoRA 值从 0.0 到 1.8。所有示例均使用触发短语:“maniacal laughter”

词语是被遗忘名字的苍白影子。既然名字具有力量,词语也具有力量。词语能在人们心中点燃火焰,稳定扩散模型。

教程:

本教程为技术性说明。如需更简单的路径,请参考 /model/58873/conceptmod-tutorial-fire-train-any-lora-with-just-text-no-data-required,并在 runpod 上运行。价格低廉,训练模型仅需 $5,生成动画不足 $1。

**
本地安装(技术性)**

需 20 GB 显存
0) 安装 a111

  1. git clone https://github.com/ntc-ai/conceptmod.git

  2. cd conceptmod

  3. 编辑 train_sequential.sh 并添加你的训练短语(见上文)

  4. 安装依赖项(参见 https://github.com/ntc-ai/conceptmod#installation-guide)和 ImageReward https://github.com/THUDM/ImageReward

  5. 使用 bash train_sequential.sh 训练模型(耗时较长)

  6. 成功训练后,你将在 models 目录中保存新的检查点,若已在 samples 目录中启用,训练期间会生成样本。

  7. 将模型移至 a111 的模型路径:
    `mv -v models/*/*.ckpt ../stable-diffusion-webui2/models/Stable-diffusion/0new`

  8. 使用 sd-scripts https://github.com/kohya-ss/sd-scripts 提取 LoRA(需新建 conda 环境)
    以下是我在目录中提取所有模型 LoRA 的脚本。请替换其中的 dir 和 basemodel 为你自己的路径。在 sd-scripts 项目中运行此脚本:
    https://github.com/ntc-ai/conceptmod/blob/main/extract_lora.sh

  9. 使用 '--api' 参数启动 a111 webui.py

  10. 创建动画
    我使用了:
    > python3 lora_anim.py -s -0.0 -e 1.8 -l "mania" -lp ", maniacal laughter" -np "nipples, weird image." -n 32 -sd 7 -m 2.0

如果你用这个生成了内容,请记得标记为 'conceptmod'

-

反应:https://civitai.com/user/ntc/images?sort=Most+Reactions

此模型生成的图像

未找到图像。