XLabs-AI / flux-ip-adapter

详情

模型描述

IP-Adapter 在 512x512 分辨率下训练了 5 万步,在 1024x1024 分辨率下训练了 2.5 万步,适用于 512x512 和 1024x1024 两种分辨率。模型仍在训练中,我们会定期发布新检查点,请保持更新。我们发布的是 v1 版本,可直接在 ComfyUI 中使用!

请参阅我们的 ComfyUI 自定义节点安装指南

示例

以下为我们的模型生成结果示例。
此外,部分带输入图像的生成结果请参见“文件与版本”部分。

推理

要尝试我们的模型,您有两种选择:

  1. 使用我们 官方仓库 中的 main.py

  2. 使用我们为 ComfyUI 开发的自定义节点,并通过提供的工作流进行测试(请查看 /workflows 文件夹)

ComfyUI 使用说明

  1. 进入 ComfyUI/custom_nodes

  2. 克隆 x-flux-comfyui,路径应为 ComfyUI/custom_nodes/x-flux-comfyui/*,其中 * 代表该仓库中的所有文件

  3. 进入 ComfyUI/custom_nodes/x-flux-comfyui/ 并运行 python setup.py

  4. 使用 git pull 更新 x-flux-comfy,或重新安装

  5. OpenAI VIT CLIP large 下载 Clip-L model.safetensors,并将其放入 ComfyUI/models/clip_vision/*

  6. huggingface 下载我们的 IPAdapter,并将其放入 ComfyUI/models/xlabs/ipadapters/*

  7. 使用 Flux Load IPAdapterApply Flux IPAdapter 节点,选择正确的 CLIP 模型,尽情生成!

  8. 您可以在本仓库的 workflows 文件夹中找到示例工作流。

如果生成效果不佳,请尝试设置 true_gs=2

局限性

IP Adapter 目前处于测试阶段。我们无法保证您能立即获得理想结果,可能需要多次尝试才能获得满意输出。

示例图片 2示例图片 1

许可证

我们的权重受 FLUX.1 [dev] 非商业许可证约束。

此模型生成的图像

未找到图像。