HSZDai_IF-Ollama+PIXART_2

세부 정보

파일 다운로드

모델 설명

HSZDai_IF-Ollama+PIXART_2


NODES

==========================================================================

'ComfyUI_ExtraModels'을 설치해야 합니다. 이를 위해 다음을 실행하세요:

cd

git clone https://github.com/city96/ComfyUI_ExtraModels custom_nodes/ComfyUI_ExtraModels

pip install -r requirements.txt

또는 프로젝트 페이지에서 제안하는 설치 방법을 시도하세요:

https://github.com/city96/ComfyUI_ExtraModels

REQUIRED FILES

====================

다음 5개의 파일을 로컬에 보유해야 합니다:

https://github.com/PixArt-alpha/PixArt-sigma?tab=readme-ov-file#-available-models에서

PixArt-Sigma-XL-2-1024-MS.pth

https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/text_encoder에서

config.json

model-00001-of-00002.safetensors

model-00002-of-00002.safetensors

https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/vae에서

diffusion_pytorch_model.safetensors

NOTE!: 이 파일은 'pixart_sigma_vae.safetensors'로 이름을 변경해야 합니다.

이 파일들을 ComfyUI 디렉토리에 다음과 같이 배치하세요:

comfyui/models/

/checkpoints

PixArt-Sigma-XL-2-1024-MS.pth

Photon_v1.safetensor (또는 다른 SD15 모델)

/t5

config.json

model-00001-of-00002.safetensors

model-00002-of-00002.safetensors

/vae

pixart_sigma_vae.safetensors

ComfyUI Ollama

Ollamaollama python client를 사용하여 상호 작용하기 위한 맞춤형 ComfyUI 노드입니다.

LLM의 강력한 기능을 ComfyUI 워크플로우에 쉽게 통합하거나 GPT를 실험해 보세요.

이를 제대로 사용하려면 ComfyUI를 실행하는 호스트에서 접근 가능한 실행 중인 Ollama 서버가 필요합니다.

설치

  1. ComfyUI를 설치하세요.

  2. ComfyUI 설치 디렉토리의 custom_nodes 폴더에 git clone하거나, zip 파일을 다운로드하여 custom_nodes/compfyui-ollama에 압축을 풀어주세요.

  3. ComfyUI를 시작하거나 재시작하세요.

또는

https://github.com/stavsap/comfyui-ollama


저는 두 친구의 작업에 크게 의존했습니다.

@rMada

@Photographer

안녕하세요, 친구들

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.