[ComfyUI Workflow] All-in-one Text-to-Image Workflow (ControlNet, IP-Adapter, ADetailer, ELLA,...)
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
이 워크플로우는 무엇인가요?
이것은 제가 SD1.5에서 배우고 사용한 내용을 기반으로 구축한 개인용 ComfyUI 워크플로우이며, 제 자신이 사용할 수 있는 모든 가능한 사용 사례를 커버하도록 확장되었습니다. 4GB VRAM + 16GB RAM 시스템에서 모든 기능을 활성화해도 여전히 실행 가능하며(잠시 기다리신다면) 강력한 결과를 제공합니다.
이 워크플로우는 너무나 많은 기능을 포함하고 있어, 직접 확인하시는 것이 가장 좋습니다. 아래는 이 워크플로우에서 지원되는 기능의 일부입니다:
v-prediction 지원 + RescaleCFG (기본적으로 비활성화됨)
제어 가능한 CLIP Skip
ELLA + ollama 프롬프트 확대 (SD1.5 전용 기능)
확장 가능한 ControlNet 그룹 (기본적으로 비활성화됨)
확장 가능한 IP-Adapter 그룹 (기본적으로 비활성화됨)
동적 임계값 설정 (기본적으로 비활성화됨)
2-pass txt2img
Perlin 노이즈 잠재 공간 블렌딩
CLIPSeg + Lama 클리너를 이용한 워터마크 제거
확장 가능한 ADetailer 그룹
알림 및 사운드
배치 이미지 미리보기 선택기
완전한 Civitai 메타데이터 지원
프롬프트 및 LoRA 스케줄링
멀티 체크포인트 설정 (여전히 테스트 중)
와일드카드(및 와일드카드 파일) 지원
...
이 워크플로우는 우선 SD1.5를 위해 구축되었지만, prompt-reader-node에서 지원하는 SDXL 모델 또는 모든 일체형 체크포인트 모델도 쉽게 사용할 수 있습니다. 이 경우 ELLA는 완전히 불필요하므로 활성화하지 마세요.
이 워크플로우를 어떻게 사용하나요?
단계 0: ComfyUI 및 ComfyUI-Manager 다운로드
단계 1: 워크플로우 파일 다운로드
단계 2: ComfyUI에 불러오기
단계 3: 누락된 모든 노드 다운로드
단계 4: 누락된 모든 모델 다운로드 (자세한 내용은 아래 참조)
단계 5: 즐겁게 생성하기!
모델 요구사항
기본
체크포인트 파일(SD1.5, SDXL 등)
VAE 파일(베이킹된 VAE인 경우 선택 사항)
4x-AnimeSharp 확대 모델(또는 원하는 다른 4x 확대 모델)
2x-AniScale2 확대 모델(또는 최종 확대 단계를 위한 다른 확대 모델 조합)
ControlNet
모든 모델은 ComfyUI-Manager의 Model Manager에서 이용 가능합니다. PonyXL 또는 IllustriousXL을 사용하는 경우, 자체 해결 방식을 적용하세요.
Depth ControlNet(Depth-Anything 전처리기 사용)
Lineart ControlNet(AnyLine Lineart 전처리기 사용)
OpenPose ControlNet(DWPose 전처리기 사용)
추가한 다른 ControlNet 모델에 따라 다름
기타 기능
IP-Adapter: IP-Adapter 모델 및 관련 CLIP-G(CLIP Vision) 모델. 모두 Model Manager에서 이용 가능
ELLA: https://github.com/TencentQQGYLab/ComfyUI-ELLA?tab=readme-ov-file#orange_book-models 참조
ADetailer/FaceDetailer: 대부분의 모델은 Model Manager에서 이용 가능하며, Anzhc의 face YOLO는 https://huggingface.co/Anzhc/Anzhcs_YOLOs에서 다운로드할 수 있습니다. 다운로드한 파일을 ultralytics/segm 폴더에 배치하세요
Ollama: https://ollama.com/download를 참조하여 설치하고, 시스템에 ollama를 설치한 후 https://ollama.com/huihui_ai/llama3.2-abliterate:3b를 다운로드하세요
















