XLabs-AI / flux-ip-adapter
詳細
ファイルをダウンロード
モデル説明
IP-Adapterは、512×512解像度で50kステップ、1024×1024解像度で25kステップのトレーニングを行い、両方の解像度で動作します。モデルは現在トレーニング中であり、定期的に新しいチェックポイントをリリースします。最新情報をご確認ください。v1バージョンをリリースしました!これはComfyUIで直接使用できます。
詳細は、当社のComfyUIカスタムノードインストールガイドをご覧ください。
例
下記に、当社モデルの生成結果の例を示します。
また、入力画像を使用した一部の生成結果は「Files and versions」に掲載されています。
推論
当社モデルを試すには、2つのオプションがあります:
ComfyUI用の手順
- ComfyUI/custom_nodesに移動します。
- x-flux-comfyuiをクローンし、パスは
ComfyUI/custom_nodes/x-flux-comfyui/*とします(*はこのリポジトリ内のすべてのファイルを指します)。 - ComfyUI/custom_nodes/x-flux-comfyui/ に移動し、
python [setup.py](http://setup.py)を実行します。 git pullで x-flux-comfy を更新するか、再インストールしてください。- OpenAI VIT CLIP large から Clip-L
model.safetensorsをダウンロードし、ComfyUI/models/clip_vision/*に配置します。 - huggingface からIPAdapterをダウンロードし、
ComfyUI/models/xlabs/ipadapters/*に配置します。 Flux Load IPAdapterおよびApply Flux IPAdapterノードを使用し、適切なCLIPモデルを選択して生成をお楽しみください。- このリポジトリのworkflowsフォルダに例のワークフローが含まれています。
結果が不十分な場合は、true_gs=2 を設定してみてください。
制限事項
IP Adapterは現在ベータ版です。すぐに良好な結果を得られるとは限りません。結果を得るには複数回試行が必要な場合があります。
ライセンス
当社の重みはFLUX.1 [dev]の非商用ライセンスに従います。



