XLabs-AI / flux-ip-adapter
详情
下载文件
模型描述
IP-Adapter 在 512x512 分辨率下训练了 5 万步,在 1024x1024 分辨率下训练了 2.5 万步,适用于 512x512 和 1024x1024 两种分辨率。模型仍在训练中,我们会定期发布新检查点,请保持更新。我们发布的是 v1 版本,可直接在 ComfyUI 中使用!
请参阅我们的 ComfyUI 自定义节点安装指南
示例
以下为我们的模型生成结果示例。
此外,部分带输入图像的生成结果请参见“文件与版本”部分。
推理
要尝试我们的模型,您有两种选择:
ComfyUI 使用说明
进入 ComfyUI/custom_nodes
克隆 x-flux-comfyui,路径应为 ComfyUI/custom_nodes/x-flux-comfyui/*,其中 * 代表该仓库中的所有文件
进入 ComfyUI/custom_nodes/x-flux-comfyui/ 并运行 python setup.py
使用
git pull更新 x-flux-comfy,或重新安装从 OpenAI VIT CLIP large 下载 Clip-L
model.safetensors,并将其放入ComfyUI/models/clip_vision/*从 huggingface 下载我们的 IPAdapter,并将其放入
ComfyUI/models/xlabs/ipadapters/*使用
Flux Load IPAdapter和Apply Flux IPAdapter节点,选择正确的 CLIP 模型,尽情生成!您可以在本仓库的 workflows 文件夹中找到示例工作流。
如果生成效果不佳,请尝试设置 true_gs=2
局限性
IP Adapter 目前处于测试阶段。我们无法保证您能立即获得理想结果,可能需要多次尝试才能获得满意输出。
许可证
我们的权重受 FLUX.1 [dev] 非商业许可证约束。



