HSZDai_IF-Ollama+PIXART_2

详情

模型描述

HSZDai_IF-Ollama+PIXART_2


节点

==========

您需要安装 'ComfyUI_ExtraModels'。请使用以下命令:

cd <您的ComfyUI目录>

git clone https://github.com/city96/ComfyUI_ExtraModels custom_nodes/ComfyUI_ExtraModels

pip install -r requirements.txt

或尝试项目页面上推荐的安装方法:

https://github.com/city96/ComfyUI_ExtraModels

所需文件

====================

您还需要本地拥有以下5个文件:

来自 https://github.com/PixArt-alpha/PixArt-sigma?tab=readme-ov-file#-available-models

PixArt-Sigma-XL-2-1024-MS.pth

来自 https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/text_encoder

config.json

model-00001-of-00002.safetensors

model-00002-of-00002.safetensors

来自 https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/vae

diffusion_pytorch_model.safetensors

注意!:此文件必须重命名为 'pixart_sigma_vae.safetensors'

将它们放置在 ComfyUI 目录中,结构如下:

comfyui/models/

/checkpoints

PixArt-Sigma-XL-2-1024-MS.pth

Photon_v1.safetensor(或其他任何SD15模型)

/t5

config.json

model-00001-of-00002.safetensors

model-00002-of-00002.safetensors

/vae

pixart_sigma_vae.safetensors

ComfyUI Ollama

用于通过 ollama python 客户端Ollama 交互的自定义 ComfyUI 节点。

轻松将大语言模型(LLM)的能力集成到 ComfyUI 工作流中,或仅用于实验 GPT。

要正常使用本插件,您需要在运行 ComfyUI 的主机上能够访问一个正在运行的 Ollama 服务器。

安装

  1. 安装 ComfyUI

  2. 在您的 ComfyUI 安装目录下的 custom_nodes 文件夹中执行 git clone,或下载 ZIP 文件并解压到 custom_nodes/comfyui-ollama

  3. 启动/重启 ComfyUI

https://github.com/stavsap/comfyui-ollama


我大量参考了两位朋友的工作:

@rMada

@Photographer

朋友们,致意!

此模型生成的图像

未找到图像。