HSZDai_IF-Ollama+PIXART_2
详情
下载文件
模型描述
HSZDai_IF-Ollama+PIXART_2
节点
==========
您需要安装 'ComfyUI_ExtraModels'。请使用以下命令:
cd <您的ComfyUI目录>
git clone https://github.com/city96/ComfyUI_ExtraModels custom_nodes/ComfyUI_ExtraModels
pip install -r requirements.txt
或尝试项目页面上推荐的安装方法:
https://github.com/city96/ComfyUI_ExtraModels
所需文件
====================
您还需要本地拥有以下5个文件:
来自 https://github.com/PixArt-alpha/PixArt-sigma?tab=readme-ov-file#-available-models
PixArt-Sigma-XL-2-1024-MS.pth
来自 https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/text_encoder
config.json
model-00001-of-00002.safetensors
model-00002-of-00002.safetensors
来自 https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/vae
diffusion_pytorch_model.safetensors
注意!:此文件必须重命名为 'pixart_sigma_vae.safetensors'
将它们放置在 ComfyUI 目录中,结构如下:
comfyui/models/
/checkpoints
PixArt-Sigma-XL-2-1024-MS.pth
Photon_v1.safetensor(或其他任何SD15模型)
/t5
config.json
model-00001-of-00002.safetensors
model-00002-of-00002.safetensors
/vae
pixart_sigma_vae.safetensors
ComfyUI Ollama
用于通过 ollama python 客户端 与 Ollama 交互的自定义 ComfyUI 节点。
轻松将大语言模型(LLM)的能力集成到 ComfyUI 工作流中,或仅用于实验 GPT。
要正常使用本插件,您需要在运行 ComfyUI 的主机上能够访问一个正在运行的 Ollama 服务器。
安装
安装 ComfyUI
在您的 ComfyUI 安装目录下的
custom_nodes文件夹中执行 git clone,或下载 ZIP 文件并解压到custom_nodes/comfyui-ollama。启动/重启 ComfyUI
或
https://github.com/stavsap/comfyui-ollama
我大量参考了两位朋友的工作:
朋友们,致意!



















