HSZDai_IF-Ollama+PIXART_2
詳細
ファイルをダウンロード
モデル説明
HSZDai_IF-Ollama+PIXART_2
NODES
================================================================
'ComfyUI_ExtraModels' をインストールする必要があります。これを行うには:
cd
git clone https://github.com/city96/ComfyUI_ExtraModels custom_nodes/ComfyUI_ExtraModels
pip install -r requirements.txt
または、プロジェクトページで推奨されているインストール方法を試してください:
https://github.com/city96/ComfyUI_ExtraModels
REQUIRED FILES
====================
また、次の5つのファイルをローカルに用意する必要があります:
https://github.com/PixArt-alpha/PixArt-sigma?tab=readme-ov-file#-available-models より
PixArt-Sigma-XL-2-1024-MS.pth
https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/text_encoder より
config.json
model-00001-of-00002.safetensors
model-00002-of-00002.safetensors
https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/vae より
diffusion_pytorch_model.safetensors
NOTE!: このファイルは 'pixart_sigma_vae.safetensors' にリネームする必要があります。
これらをComfyUIディレクトリに以下のように配置してください:
comfyui/models/
/checkpoints
PixArt-Sigma-XL-2-1024-MS.pth
Photon_v1.safetensor(またはその他のSD15モデル)
/t5
config.json
model-00001-of-00002.safetensors
model-00002-of-00002.safetensors
/vae
pixart_sigma_vae.safetensors
ComfyUI Ollama
Ollama と ollama python client を使用して、ComfyUI と対話するためのカスタムノードです。
LLMの機能をComfyUIワークフローに簡単に統合したり、GPTの実験を行ったりできます。
これを正しく使用するには、ComfyUIを実行しているホストからアクセス可能なOllamaサーバーが動作している必要があります。
インストール
ComfyUI をインストールします。
ComfyUIインストールディレクトリ内の
custom_nodesフォルダに git clone するか、zipファイルをダウンロードしてcustom_nodes/comfyui-ollamaに展開します。ComfyUIを起動または再起動します。
または
https://github.com/stavsap/comfyui-ollama
私は以下の二人の友人の作品に大きく依存しました。
みなさん、こんにちは



















