LLM Prompt + Assist

详情

下载文件

模型描述

在大家都在谈论LLM被集成到CivitAI系统中的时候,我想分享我工作流中LLM部分的核心内容。

这一部分的重点在于提示词以及LLM对提示词的修改。工作流的最后一部分(实际生成图像)是一个非常基础、简单的流程。我的初衷是让提示词生成的核心LLM部分能够灵活适配到你任意喜欢的工作流中,所以我设计成你可以轻松将其融入你自己的常用流程。

关于LLM节点的一些说明:

每个LLM节点/模型都可以直接“对话”。你输入什么,它就会回答什么。因此,你甚至可以直接问它“你认为你会接管世界吗?”之类的句子,具体回答则取决于你使用的模型。所以在给LLM节点下达指令时,请注意这一点。我提供了一些示例说明该在LLM节点中输入什么内容,但你只要稍微试用一下就会明白。像“描述”、“想象”、“思考”等词都是很好的引导词。

它如何工作,以及为何这样设置

有一个主提示词框,你可以自由填写任何内容,也可以留空。你输入的任何内容要么直接使用,要么由LLM清理辅助节点进行评估。这一点很重要,因为它赋予了你灵活性——你并不一定需要使用LLM清理辅助节点,下面我会解释原因。

两个LLM节点被设计为向LLM提出不同的任务。为什么这很重要?因为如果你让LLM“描述一个坐在地牢中的女性精灵法师”,它不仅会描述场景,还很可能添加动机、情感、为什么她在那里等细节。

这是因为LLM,特别是擅长叙事或角色扮演的LLM,倾向于生成一个涵盖你提供所有元素的合理回应。我发现最简单的避免方式就是给LLM设定非常狭窄的关注点。通过将你希望包含的元素拆分为多个独立任务交给LLM,你能够获得更精准的描述结果。

尝试将场景拆分,让每个LLM专注于单一内容。以上述描述为例,将其拆分为两个独立的LLM查询会生成更佳的结果:LLM一:“描述一个黑暗地牢的样子”;LLM二:“描述一个女性精灵法师的样貌”。提示词合并节点会将这两个描述整合起来,然后进入LLM清理辅助节点。

LLM清理辅助节点:(启用)

这是最终的解析LLM,通常负责整合所有信息。它会读取前面所有节点的数据,并生成一个最终的提示词输出。

LLM清理辅助节点:(禁用)

当禁用时,它会直接将合并后的完整提示词传递给图像生成模块。

几点补充说明:

此工作流不包含任何LLM文件,但我已在工作流中附上了几个可能对你有帮助的模型建议。不过,只要模型是GGUF格式,任何指令型或对话型LLM都可以使用,我在工作流中提供了详细说明。

此模型生成的图像

未找到图像。