XLabs-AI / flux-ip-adapter

詳細

ファイルをダウンロード

モデル説明

IP-Adapterは、512×512解像度で50kステップ、1024×1024解像度で25kステップのトレーニングを行い、両方の解像度で動作します。モデルは現在トレーニング中であり、定期的に新しいチェックポイントをリリースします。最新情報をご確認ください。v1バージョンをリリースしました!これはComfyUIで直接使用できます。

詳細は、当社のComfyUIカスタムノードインストールガイドをご覧ください。

下記に、当社モデルの生成結果の例を示します。
また、入力画像を使用した一部の生成結果は「Files and versions」に掲載されています。

推論

当社モデルを試すには、2つのオプションがあります:

  1. 公式リポジトリmain.pyを使用する。
  2. ComfyUI用のカスタムノードを使用し、提供されているワークフローでテストする(/workflowsフォルダをご確認ください)。

ComfyUI用の手順

  1. ComfyUI/custom_nodesに移動します。
  2. x-flux-comfyuiをクローンし、パスは ComfyUI/custom_nodes/x-flux-comfyui/* とします(*はこのリポジトリ内のすべてのファイルを指します)。
  3. ComfyUI/custom_nodes/x-flux-comfyui/ に移動し、python [setup.py](http://setup.py) を実行します。
  4. git pull で x-flux-comfy を更新するか、再インストールしてください。
  5. OpenAI VIT CLIP large から Clip-L model.safetensors をダウンロードし、ComfyUI/models/clip_vision/* に配置します。
  6. huggingface からIPAdapterをダウンロードし、ComfyUI/models/xlabs/ipadapters/* に配置します。
  7. Flux Load IPAdapter および Apply Flux IPAdapter ノードを使用し、適切なCLIPモデルを選択して生成をお楽しみください。
  8. このリポジトリのworkflowsフォルダに例のワークフローが含まれています。

結果が不十分な場合は、true_gs=2 を設定してみてください。

制限事項

IP Adapterは現在ベータ版です。すぐに良好な結果を得られるとは限りません。結果を得るには複数回試行が必要な場合があります。

Example Picture 2Example Picture 1

ライセンス

当社の重みはFLUX.1 [dev]の非商用ライセンスに従います。

このモデルで生成された画像

画像が見つかりません。