HSZDai_IF-Ollama+PIXART_2

詳細

ファイルをダウンロード

モデル説明

HSZDai_IF-Ollama+PIXART_2


NODES

================================================================

'ComfyUI_ExtraModels' をインストールする必要があります。これを行うには:

cd

git clone https://github.com/city96/ComfyUI_ExtraModels custom_nodes/ComfyUI_ExtraModels

pip install -r requirements.txt

または、プロジェクトページで推奨されているインストール方法を試してください:

https://github.com/city96/ComfyUI_ExtraModels

REQUIRED FILES

====================

また、次の5つのファイルをローカルに用意する必要があります:

https://github.com/PixArt-alpha/PixArt-sigma?tab=readme-ov-file#-available-models より

PixArt-Sigma-XL-2-1024-MS.pth

https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/text_encoder より

config.json

model-00001-of-00002.safetensors

model-00002-of-00002.safetensors

https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/vae より

diffusion_pytorch_model.safetensors

NOTE!: このファイルは 'pixart_sigma_vae.safetensors' にリネームする必要があります。

これらをComfyUIディレクトリに以下のように配置してください:

comfyui/models/

/checkpoints

PixArt-Sigma-XL-2-1024-MS.pth

Photon_v1.safetensor(またはその他のSD15モデル)

/t5

config.json

model-00001-of-00002.safetensors

model-00002-of-00002.safetensors

/vae

pixart_sigma_vae.safetensors

ComfyUI Ollama

Ollamaollama python client を使用して、ComfyUI と対話するためのカスタムノードです。

LLMの機能をComfyUIワークフローに簡単に統合したり、GPTの実験を行ったりできます。

これを正しく使用するには、ComfyUIを実行しているホストからアクセス可能なOllamaサーバーが動作している必要があります。

インストール

  1. ComfyUI をインストールします。

  2. ComfyUIインストールディレクトリ内の custom_nodes フォルダに git clone するか、zipファイルをダウンロードして custom_nodes/comfyui-ollama に展開します。

  3. ComfyUIを起動または再起動します。

または

https://github.com/stavsap/comfyui-ollama


私は以下の二人の友人の作品に大きく依存しました。

@rMada

@Photographer

みなさん、こんにちは

このモデルで生成された画像

画像が見つかりません。