Flux Plus workflow(Multifunctional modularization)

세부 정보

모델 설명

V2.63

일부 플러그인이 업데이트되면서 일부 노드가 교체되었습니다. 이후 미세 조정을 진행하고 일부 기능을 추가했습니다.

ControlNet 블록은 이제 기본적으로 Controlnet-Upscaler 모델의 노드 시리즈를 사용하며, 이는 우수한 확대용 CN 모델입니다.

jasperai/Flux.1-dev-Controlnet-Upscaler · Hugging Face

——————————————————————————

일부 플러그인이 업데이트되어 일부 노드가 교체되었습니다. 이후 미세 조정을 수행하고 기능을 추가/조정했습니다.

ControlNet 블록은 이제 기본적으로 Controlnet-Upscaler 모델의 노드 시리즈를 사용하며, 이는 새롭게 등장한 우수한 확대용 CN 모델입니다.

https://hf-mirror.com/jasperai/Flux.1-dev-Controlnet-Upscaler

V2.5

  1. omost를 시뮬레이션하기 위해 JSON 구조 프롬프트를 추가했습니다.

Flux의 구조화된 프롬프트에 대한 우수한 표현력을 활용해, 사용자 정의 지시어를 통해 대형 언어 모델이 JSON 프롬프트를 생성하도록 유도합니다.

자세한 내용은 다음을 참고하세요:

Simulate OMOST (Flux+Ollama) - v1.0 | Stable Diffusion Workflows | Civitai

  1. 노드 모듈을 재구성하여 더 논리적이고 명확하게 구성했습니다.

——

  1. omost를 시뮬레이션하기 위해 JSON 구조 프롬프트를 추가했습니다.

Flux의 구조화된 프롬프트 표현력에 기반해, 사용자 정의 지시어를 통해 대형 언어 모델이 JSON 프롬프트를 생성하도록 유도합니다.

자세한 내용은 다음을 참고하세요:

Simulate OMOST (Flux+Ollama) - v1.0 | Stable Diffusion Workflows | Civitai

  1. 노드 모듈을 재정렬하여 더 논리적 구조로 개선했습니다.

——————————————————————————————————————

V2.3

  1. Flux의 IPAdapter 노드를 추가했습니다(Xlabs에서 출시한 IPAdapter는 Flux 생태계의 중요한 단계이지만, 이는 초기 모델로 효과가 그다지 좋지 않으니 단순히 시도해보세요).

XLabs-AI/flux-ip-adapter · Hugging Face

(ComfyUI/models/xlabs/IP adapters/*에 배치)

openai/clip-vit-large-patch14 · Hugging Face

(ComfyUI/models/clip_vision/*에 배치)

  1. ttplanet의 【Comfyui_TTP_Toolset】 확대 노드를 추가했습니다.

Amazing Flux_8Mega_Pixel_image_upscale_process - v2.0 | Stable Diffusion Workflows | Civitai

Hires Fix 기술을 사용한 확대 방법으로, TILE의 블록 방식과 유사하게 이미지를 분할하여 이미지 역추론 모델로 설명한 후 최종적으로 합성합니다. 대단하네요!

노드는 두 가지 방식으로 사용할 수 있습니다.

첫 번째는 원본 이미지의 노이즈 감소 출력을 기반으로 잠재 공간에서 확대하는 방식입니다. 그러나 확대 단계의 노이즈 감소가 낮으면 이미지가 붕괴되기 쉬우며, 일반적으로 다음과 같은 조건을 추천합니다: 2배 확대 시 노이즈 감소 0.6, 3배 확대 시 0.65, 4배 확대 시 0.7. 노이즈 감소가 지나치게 낮으면 심각한 아티팩트가 발생하며, 노이즈 감소가 0.6보다 높아지면 확대된 이미지의 내용이 크게 변할 수 있습니다.

두 번째는 초기 생성된 이미지를 인코더로 샘플링하는 방식으로, 이는 상대적으로 더 제어하기 쉽고 노이즈 감소를 0.3–0.6 사이로 낮추어도 이미지 내용이 거의 변하지 않도록 보장할 수 있습니다. 개인적으로 이 방식을 추천합니다.

저는 일반적으로 확대 모델과 Flux로 먼저 2배 확대한 후, 【Comfyui_TTP_Toolset】을 사용해 다시 2배 확대합니다. 이렇게 하면 세부 사항이 더 향상된다고 느낍니다. SDXL의 ControlNet Tile 또는 기타 확대 방식을 사전에 사용하여 최종 이미지에 세부 정보와 품질을 추가하는 것도 시도해볼 수 있습니다.

이 워크플로우 자체가 모듈화되어 있어, 각 모듈의 핵심 단계에 모두 “Set”과 “Get” 노드를 설정해두었기 때문에 다양한 조합을 시도해 최적의 경험을 찾을 수 있습니다.

  1. 워크플로우가 점점 커지고 있습니다. Flux 생태계는 아직 구성 중이므로, 이 워크플로우는 주로 다양한 신기능의 실험적 방향을 기록하는 목적을 가지고 있습니다. 일부 노드는 일단 유지하고 있어 비교와 테스트가 용이하도록 했습니다. 가독성과 재미는 높지만, 약간 무거운 편입니다. 일반적으로 메모리가 16GB 이하인 사용자는 이 워크플로우를 시도하지 않는 것이 좋습니다.

  1. Flux의 IPAdapter 노드를 추가했습니다(Xlabs에서 출시한 IPAdapter는 Flux 생태계의 중요한 단계이지만, 이는 초기 모델로 효과가 그다지 좋지 않으니 단순히 시도해보세요).

XLabs-AI/flux-ip-adapter · Hugging Face

(ComfyUI/models/xlabs/ipadapters/*에 배치)

openai/clip-vit-large-patch14 · Hugging Face

(ComfyUI/models/clip_vision/*에 배치)

  1. ttplanet의 【Comfyui_TTP_Toolset】 확대 노드를 추가했습니다.

Amazing Flux_8Mega_Pixel_image_upscale_process - v2.0 | Stable Diffusion Workflows | Civitai

Hires Fix 기술을 사용한 확대 방법으로, TILE의 블록 방식과 유사하게 이미지를 분할하여 이미지 역추론 모델로 설명한 후 최종적으로 합성합니다. 대단하네요!

노드는 두 가지 방식으로 사용할 수 있습니다.

첫 번째는 원본 이미지의 노이즈 감소 출력을 기반으로 잠재 공간에서 확대하는 방식입니다. 그러나 확대 단계의 노이즈 감소가 낮으면 이미지가 붕괴되기 쉬우며, 일반적으로 다음과 같은 조건을 추천합니다: 2배 확대 시 노이즈 감소 0.6, 3배 확대 시 0.65, 4배 확대 시 0.7. 노이즈 감소가 지나치게 낮으면 심각한 아티팩트가 발생하며, 노이즈 감소가 0.6보다 높아지면 확대된 이미지의 내용이 크게 변할 수 있습니다.

두 번째는 초기 생성된 이미지를 인코더로 샘플링하는 방식으로, 이는 상대적으로 더 제어하기 쉽고 노이즈 감소를 0.3–0.6 사이로 낮추어도 이미지 내용이 거의 변하지 않도록 보장할 수 있습니다. 개인적으로 이 방식을 추천합니다.

저는 일반적으로 확대 모델과 Flux로 먼저 2배 확대한 후, 【Comfyui_TTP_Toolset】을 사용해 다시 2배 확대합니다. 이렇게 하면 세부 사항이 더 향상된다고 느낍니다. SDXL의 ControlNet Tile 또는 기타 확대 방식을 사전에 사용하여 최종 이미지에 세부 정보와 품질을 추가하는 것도 시도해볼 수 있습니다.

이 워크플로우 자체가 모듈화되어 있어, 각 모듈의 핵심 단계에 모두 “Set”과 “Get” 노드를 설정해두었기 때문에 다양한 조합을 시도해 최적의 경험을 찾을 수 있습니다.

  1. 워크플로우가 점점 커지고 있습니다. Flux 생태계는 아직 구성 중이므로, 이 워크플로우는 주로 다양한 신기능의 실험적 방향을 기록하는 목적을 가지고 있습니다. 일부 노드는 일단 유지하고 있어 비교와 테스트가 용이하도록 했습니다. 가독성과 재미는 높지만, 약간 무거운 편입니다. 일반적으로 메모리가 16GB 이하인 사용자는 이 워크플로우를 시도하지 않는 것이 좋습니다.

V2.1

V2.1 워크플로우에서는 초강력 이미지 역추론 노드 그룹 joy_caption이 교체되었습니다. 이 노드 그룹의 모델 구조가 더 복잡하므로, GitHub 페이지의 설명을 꼼꼼히 읽어주십시오.

https://github.com/StartHua/Comfyui_CXH_joy_caption/tree/main

Flux를 이용해 고해상도 확대 이미지를 생성할 때, NF4-V2 모델을 선택합니다.

Flux.1-Dev (v1+v2) Flux.1-Schnell BNB NF4 - Flux.1-Dev BNB NF4 v2 | Stable Diffusion Checkpoint | Civitai

——————————————————

V2.1 워크플로우에서는 초강력 이미지 역추론 노드 그룹 joy_caption이 교체되었습니다. 이 노드 그룹의 모델 구성이 복잡하므로, GitHub 페이지의 설명을 꼼꼼히 읽어주십시오.

https://github.com/StartHua/Comfyui_CXH_joy_caption/tree/main

Flux를 이용해 고해상도 확대 이미지를 생성할 때, NF4-V2 모델을 선택합니다.

Flux.1-Dev (v1+v2) Flux.1-Schnell BNB NF4 - Flux.1-Dev BNB NF4 v2 | Stable Diffusion Checkpoint | Civitai


V1

다기능, 모듈화된 Flux 워크플로우입니다.

Flux의 일반적인 작동을 제공할 뿐만 아니라, 생성된 이미지의 품질은 우수하지만 콘텐츠의 예술적 미학이 단순하고 고정되어 있다는 문제를 해결하기 위해 Pixart 및 SDXL 워크플로우를 도입했습니다.

  1. Flux 모델의 일반적인 이미지 생성 프로세스를 실행하고, 현재 출시된 Flux LoRA 및 Flux ControlNet 기능을 추가할 수 있으며, 얼굴을 세밀하게 조정한 후 Flux 모델로 다시 그려 고해상도 확대를 실현할 수 있습니다.

FLUX - Dev | Stable Diffusion Checkpoint | Civitai

  1. ControlNet 및 IPAdapter를 포함하는 전통적인 SDXL 프로세스를 추가하여 세부사항 복구 및 고해상도 확대를 실현할 수 있으며, 고해상도 복구에는 Kolors 재생성 확대를 대안으로 제공합니다.

  2. 화웨이에서 출시한 Pixart 900 모델의 이미지 생성 프로세스를 추가했습니다. ControlNet 등의 생태계는 없지만, 이 모델은 뛰어난 예술성과 콘텐츠 다양성을 지닙니다. Flux 이미지 복구를 통해 화질의 약점을 보완할 수 있습니다.

900M PixArt Sigma - base | Stable Diffusion Checkpoint | Civitai

  1. 프롬프트는 Ollama 노드를 사용하여 LLM 대형 모델의 문장을 다듬을 수 있으며, 이미지 역추론을 통해 프롬프트를 생성하는 데에도 활용할 수 있습니다.

https://ollama.com/ 웹사이트에서 Ollama를 다운로드해야 합니다. 설치는 매우 간단합니다. 설치 후 키보드에서 Win+R을 입력해 실행 대화상자를 열고, CMD를 입력해 명령 프롬프트 창을 여신 후 “ollama run llama3.1”을 입력하면 모델이 자동으로 다운로드됩니다. 위 웹사이트에서 다른 모델도 시도해볼 수 있습니다. 기본적으로 모델은 C 드라이브에 다운로드되며, 경로를 변경하려면 시스템 변수에 OLLAMA_MODELS를 추가하고 직접 경로를 지정해야 합니다.

  1. SDXL 또는 Pixart로 이미지를 생성 → Flux로 이미지 재생성 복구 → SDXL 모델로 세부 복구 → 고해상도 확대라는 프로세스를 연결하여 이미지 품질을 향상시킵니다.

  2. 워크플로우는 모듈화되어 있어 프로세스가 완전히 고정되지 않습니다. “Set/Get” 노드 기능을 통해 다른 모듈 간 이미지 생성 논리를 전환하고, 다양한 조합을 스스로 탐색할 수 있습니다.

워크플로우의 각 기능은 노드 그룹으로 구성되어 있으며 설명이 포함되어 있습니다. 사용 전 반드시 읽어보세요. 빈 공간을 마우스 오른쪽 클릭 후 【관리 그룹(easy use)】를 선택하여 노드 그룹을 활성화하거나 무시하고, 필요에 따라 사용하세요.

  1. ComfyUI를 업데이트해 주세요.

———

다기능, 모듈화된 Flux 워크플로우입니다.

Flux의 일반적인 작동을 제공할 뿐만 아니라, 생성된 이미지의 품질은 우수하지만 콘텐츠의 예술적 미학이 단순하고 고정되어 있다는 문제를 해결하기 위해 Pixart 및 SDXL 워크플로우를 도입했습니다.

  1. Flux 모델의 일반적인 이미지 생성 프로세스를 실행하고, 현재 출시된 Flux LoRA 및 Flux ControlNet 기능을 추가할 수 있으며, 얼굴을 세밀하게 조정한 후 Flux 모델로 다시 그려 고해상도 확대를 실현할 수 있습니다.

FLUX - Dev | Stable Diffusion Checkpoint | Civitai

  1. ControlNet 및 IPAdapter를 포함하는 전통적인 SDXL 프로세스를 추가하여 세부사항 복구 및 고해상도 확대를 실현할 수 있으며, 고해상도 복구에는 Kolors 재생성 확대를 대안으로 제공합니다.

  2. 화웨이에서 출시한 Pixart 900 모델의 이미지 생성 프로세스를 추가했습니다. ControlNet 등의 생태계는 없지만, 이 모델은 뛰어난 예술성과 콘텐츠 다양성을 지닙니다. Flux 이미지 복구를 통해 화질의 약점을 보완할 수 있습니다.

900M PixArt Sigma - base | Stable Diffusion Checkpoint | Civitai

  1. 프롬프트는 Ollama 노드를 사용하여 LLM 대형 모델의 문장을 다듬을 수 있으며, 이미지 역추론을 통해 프롬프트를 생성하는 데에도 활용할 수 있습니다.

https://ollama.com/ 웹사이트에서 Ollama를 다운로드해야 합니다. 설치는 매우 간단합니다. 설치 후 키보드에서 Win+R을 입력해 실행 대화상자를 열고, CMD를 입력해 명령 프롬프트 창을 여신 후 “ollama run llama3.1”을 입력하면 모델이 자동으로 다운로드됩니다. 위 웹사이트에서 다른 모델도 시도해볼 수 있습니다. 기본적으로 모델은 C 드라이브에 다운로드되며, 경로를 변경하려면 시스템 변수에 OLLAMA_MODELS를 추가하고 직접 경로를 지정해야 합니다.

  1. SDXL 또는 Pixart로 이미지를 생성 → Flux로 이미지 재생성 복구 → SDXL 모델로 세부 복구 → 고해상도 확대라는 프로세스를 연결하여 이미지 품질을 향상시킵니다.

  2. 워크플로우는 모듈화되어 있어 프로세스가 완전히 고정되지 않습니다. “Set/Get” 노드 기능을 통해 다른 모듈 간 이미지 생성 논리를 전환하고, 다양한 조합을 스스로 탐색할 수 있습니다.

워크플로우의 각 기능은 노드 그룹으로 구성되어 있으며 설명이 포함되어 있습니다. 사용 전 반드시 읽어보세요. 빈 공간을 마우스 오른쪽 클릭 후 【관리 그룹(easy use)】를 선택하여 노드 그룹을 활성화하거나 무시하고, 필요에 따라 사용하세요.

  1. ComfyUI를 업데이트해 주세요.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.