只是一个最小化的LLM工作流
使用
https://github.com/SeargeDP/ComfyUI_Searge_LLM
加载 LLM
然而,由于它消耗大量内存,我通常只敢使用非常小的模型,例如
https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct-GGUF