Qwen-image nf4 workflow (4-8steps, 16GB VRAM compatible)

详情

模型描述

此工作流使用最新的 bnb 4 位模型加载插件,以 bnb nf4 格式加载 qwen-image 量化模型。

插件地址:GitHub - mengqin/ComfyUI-UnetBnbModelLoader: 一个通用的 ComfyUI 模型加载插件,支持加载以 bnb-4bit(nf4 和 fp4)格式量化的 UNet 模型

您可通过 ComfyUI Manager 的插件管理系统直接安装缺失的插件,或搜索 “Unet Bnb Model Loader” 来查找并安装。当然,您也可以手动安装。

使用的模型:ovedrive/qwen-image-4bit · Hugging Face

请注意,这是一个分片模型,但您无需手动合并分片。只需将所有分片放入一个目录中,例如 qwen-image-4bit,然后将该目录放入 unet 目录下。插件会自动识别并加载分片模型。在下拉菜单中,分片模型将根据其所在目录名称显示。

使用以下 LoRA 加速生成:PJMixers-Images/lightx2v_Qwen-Image-Lightning-4step-8step-Merge · Hugging Face

使用以下 text_encoder(需 GGUF 插件):https://huggingface.co/unsloth/Qwen2.5-VL-7B-Instruct-GGUF/resolve/main/Qwen2.5-VL-7B-Instruct-Q4_K_M.gguf?download=true

整个图像生成过程的速度约为使用 GGUF 模型的两倍,生成效果与 GGUF Q4 相近。峰值内存占用约 15GB,在重复生成图像时可维持在约 14GB。

图像生成速度约为 1 it/s,推荐步数为 5-6 步。由于依赖 BitsAndBytes 库,此工作流仅支持 NVIDIA 显卡,不支持其他品牌显卡。

此模型生成的图像

未找到图像。