XLabs-AI / flux-ip-adapter

세부 정보

파일 다운로드

모델 설명

IP-Adapter는 512x512 해상도에서 5만 스텝, 1024x1024 해상도에서 2만 5천 스텝 동안 학습되었으며, 둘 다 512x1024 및 1024x1024 해상도에서 작동합니다. 모델은 아직 학습 중이며, 정기적으로 새로운 체크포인트를 공개하므로 최신 정보를 확인하세요. 우리는 v1 버전을 공개했으며, 이 버전은 ComfyUI에서 즉시 사용할 수 있습니다!

자세한 내용은 우리의 ComfyUI 커스텀 노드 설치 가이드를 참고하세요.

예시

아래에 우리의 모델 생성 결과 예시를 확인하실 수 있습니다.
또한 입력 이미지와 함께 생성된 결과는 "Files and versions"에 제공되어 있습니다.

추론

모델을 시험해보려면 다음 두 가지 옵션이 있습니다:

  1. 공식 저장소에서 main.py를 사용하세요.

  2. ComfyUI용 커스텀 노드를 사용하고 제공된 워크플로우로 테스트하세요( /workflows 폴더 확인).

ComfyUI 설치 안내

  1. ComfyUI/custom_nodes로 이동하세요.

  2. x-flux-comfyui를 클론하세요. 경로는 ComfyUI/custom_nodes/x-flux-comfyui/*여야 하며, *는 이 저장소의 모든 파일을 의미합니다.

  3. ComfyUI/custom_nodes/x-flux-comfyui/로 이동하여 python setup.py를 실행하세요.

  4. git pull로 x-flux-comfy를 업데이트하거나 재설치하세요.

  5. OpenAI VIT CLIP large에서 Clip-L model.safetensors를 다운로드하고 ComfyUI/models/clip_vision/*에 저장하세요.

  6. huggingface에서 우리 IPAdapter를 다운로드하고 ComfyUI/models/xlabs/ipadapters/*에 저장하세요.

  7. Flux Load IPAdapterApply Flux IPAdapter 노드를 사용하고, 적절한 CLIP 모델을 선택하여 생성을 즐기세요.

  8. 이 저장소의 workflows 폴더에서 예시 워크플로우를 찾을 수 있습니다.

결과가 좋지 않을 경우, true_gs=2로 설정해 보세요.

한계사항

IP Adapter는 현재 베타 버전입니다. 즉시 우수한 결과를 얻을 수 있음을 보장하지 않으며, 원하는 결과를 얻기 위해 여러 번 시도해야 할 수 있습니다.

Example Picture 2Example Picture 1

라이선스

우리의 가중치는 FLUX.1 [dev] 비상업 라이선스 하에 있습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.