Flux2-TurboV2 Acceleration

详情

下载文件

模型描述

此工作流是一个使用ComfyUI“自定义采样器”堆栈(而非经典KSampler)的Flux.2 Turbo V2加速文本到图像(或可选参考引导)设置。它加载Flux2 UNetflux2_dev_fp8mixed.safetensors)、Flux2 文本编码器mistral_3_small_flux2_fp8…,类型为flux2)以及Flux2 VAEflux2-vae.safetensors)。随后在采样前应用一个仅模型的Turbo LoRAFlux2TurboComfyv2.safetensors),强度为1.0,这是本流程中主要的速度与行为改进。

采样过程由模块化节点组成:CLIPTextEncode → FluxGuidance(guidance=4) 生成条件提示,然后BasicGuider + KSamplerSelect(euler) + Flux2Scheduler(steps=8) 输入到SamplerCustomAdvanced中。基础潜变量来自EmptyFlux2LatentImage,具有固定宽高;你可选择性启用ReferenceLatent节点(Ctrl-B)注入一个或多个参考图像;若跳过它们,则变为纯文本到图像。最终潜变量经过VAE解码并保存。简而言之:Turbo LoRA + 自定义采样器管线,当你需要更强的相似性控制时,可选参考潜变量锚定。

🎥 YouTube 视频教程

想了解这个工作流具体是做什么的,以及如何快速启动?

本视频将解释该工具的功能、如何立即启动工作流,并分享我的核心设计思路——无需本地部署,无需复杂环境。

所有内容均直接在RunningHub上运行,让你第一时间体验实际效果。

👉 YouTube 教程: https://youtu.be/CTIWLigZL1E

开始前建议完整观看视频——掌握整体背景有助于更快理解工具,避免常见误区。

⚙️ RunningHub 工作流

立即在线尝试,无需安装。

👉 工作流: https://www.runninghub.ai/post/2007448172402057217/?inviteCode=rh-v1111

若结果符合预期,你后续可部署到本地进行自定义。

🎁 粉丝福利: 注册即送1000积分,每日登录额外获得100积分,畅享4090性能与48GB超强算力!

📺 Bilibili 更新(中国大陆及亚太地区)

如果你身处亚太地区,可通过下方视频查看该工作流的实测演示与创意解析。

📺 B站视频: https://www.bilibili.com/video/BV1s5iqBNE6F/

我会在夸克网盘持续更新模型资源:👉 https://pan.quark.cn/s/20c6f6f8d87b 这些资源主要面向本地用户,便于创作与学习。


☕ 在 Ko-fi 支持我

如果你觉得我的内容有帮助,并希望支持未来的创作,欢迎请我喝杯咖啡 ☕。

每一份支持都助我持续创作——如同一粒火花,能点燃熊熊烈焰。

👉 Ko-fi: https://ko-fi.com/aiksk

💼 商务联系

如需合作或咨询,请添加微信:aiksk95

此模型生成的图像

未找到图像。