Wan2.2 Another workflow that do NSFW. But now - with custom LORA for each step.
세부 정보
파일 다운로드
모델 설명
RED COLOR LETTERS: 오류를 우회하기 위해 우회된 모든 양성 항목을 우회하지 마십시오.
여기, 수정되었습니다. 그걸 오래전에 해야 했습니다.
사양: 4070TiS 16GB+64GB DDR5+i7-14700. 그래서 왜 여기에 올리는지 물어볼 수 있겠죠? 왜냐하면 이건 gguf를 사용하기 때문입니다(자신만의 가벼운 모델을 선택할 수 있음) 그리고 긴 동영상을 생성할 수 있고, 각 스텝마다 다른 LORA를 적용할 수 있기 때문입니다. 그게 전부입니다. 저는 스스로 그런 것을 찾았지만...
주의! 샘플러는 커스텀이며 ComfyUI-WanMoeKSampler에 들어갑니다. 이는 custom_nodes에 넣어야 합니다(저 진짜 표준 노드로 5.1 버전을 만들어야 하나요?.............................................................................................................................................................................................................................. 저는 이게 가능하다고 생각했는데).
영감:
/model/1829052?modelVersionId=2070152 - 거의 모든 것을 여기서 훔쳤습니다.
/model/1847579/wan-22-i2v-helper-loras-without-killing-motion-or-lora-action-lightning-22-i2v-pusa-fusionx Kiefstorm: 적절한 결과를 주셔서 감사합니다. 이제 가능하다고 믿게 되었습니다.
샘플러:
및
저는 제 기분을 위해 수정했고, 수정본을 아카이브에 넣었습니다만, 그냥 기본 두 개를 사용하셔도 됩니다. 이론적으로, 고해상도와 저해상도에 다른 ModelSampling을 적용하면 서로 다른 역할을 할 수 있습니다. 그러나 경계(Boundary)가 훨씬 더 큰 역할을 한다고 합니다. 저는 이것을 모두 이해하지 못하므로, 제 자신이 편안히 잠들 수 있도록 원래 ComfyUI-WanMoeKSampler를 수정했습니다(원본을 다운로드하거나, 다른 사람들이 올린 두 개의 샘플러만 사용하거나, 제가 스크린샷에서 아카이브에 넣은 제 샘플러를 사용하셔도 됩니다. 걱정하지 마세요. 그냥 “ComfyUI-WanMoeKSampler” 폴더를 custom_nodes에 복사하세요. 원본 nodes.py는 nodes1.py라는 이름으로 존재합니다). 그리고 나머지 수십억 개의 노드는 직접 설치하셔야 합니다.
오, 그리고 공간과 시간을 주면(즉, 제 테스트 49초를 최소 97초로 늘리면) 훨씬 잘 벗겨집니다(제가 말하는 것은 -).
WanImageToVideo 노드에서 해상도를 선택하세요. load&resize에서 선택하지 마세요. 저는 WanVideoWrapper 워크플로우에서만 리사이징의 이점을 봤습니다(WanVideo ImageToVideo Encode 노드가 제 시스템을 공간으로 던져버렸습니다), 그리고 같은 WanImageToVideo 노드가 똑같은 일을 하면서도 왜 그렇게 동작하는지 저는 모르겠습니다.
이 포킹의 기적 덕분에: "wan2.2 GGUF Kijai longvideo.json"(이것도 아카이브에 넣었습니다. 교육용). 저는 이 다크플로우가 어디서 왔는지 정확히 기억하지 못하지만, 이건 WanVideo 노드들에만 완전히 작동했습니다(그것들은 일반적인 것들과 호환되지 않기 때문입니다) 그리고 심지어 BSOD까지 일으키며 엄청나게 나쁜 품질을 만들어냈습니다. 그래서 저는 각 스텝 프롬프트에서 LORA를 어떻게 뽑아내는지 이해하기 위해 이걸 싸웠습니다. 그런데 불가능했습니다. 왜냐하면 개발자들이 특이하게도 WanVideo 노드를 다른 것들과 다르게 만들었기 때문입니다. 친구들, 우리가 같은 모델을 쓰는데, 왜 당신 노드는 다르게 작동합니까? 왜 심지어 스케줄러를 선택할 수 없나요?(오, 네, 당신은 샘플러를 스케줄러처럼 불렀고, 당신의 "스케줄러"는 wan2.2에 대해 허접한 선택을 합니다).
저는 제 방식으로 했습니다. 연결이 복잡해서 처음엔 명확하지 않을 수 있지만, 여러분이 주로 사용할 주요 노드들은 다른 사람들과 동일하게 보일 것입니다.
친구들, 저는 스스로 한 달 전에 Wan에 빠졌습니다. 여러분도 알아낼 수 있을 겁니다.
자신이 가지고 있거나 원하는 양자화된 모델을 선택하고, clip과 clip_vision(모두 동일합니다)으로 실험해보세요. 저는 가장 빠른 워크플로우를 만들려는 의도가 아니었습니다. 더 제어 가능하게 만들고 싶었습니다.
이제 당신이 스스로 감독이 되세요.
P.S. 그 전에 저는 약 반년 동안 forge와 fooooocus의 이미지에만 열광했습니다. 2년 전에는 당신들의 Comfy를 시도했지만, 복잡해 보이고 제 하드웨어에서 생성에 오래 걸렸습니다(RTX2070에서 SD1 또는 SDXL이 Flux만큼 빠르다는 게 상상이 되나요?). 그러다가 수년 후, forge 이후, 인페인팅을 위해 조금의 invoke와 foooocus를 사용하던 도중, SwarmUI를 발견하게 되었습니다(StabilityMatrix 덕분입니다 - 두 번의 클릭으로 설치 옵션을 보여줍니다). Swarm을 설치했을 때, 거의 동일한 Comfy였고, 저는 "이게 뭐야?!"라고 외쳤습니다. 어쨌든 기본으로 워크플로우가 제공되었습니다. 시도해봤습니다. 그리고 Wan2.2도 등장했습니다. 영상을 만들고 싶다면 고생해야 한다고 생각했습니다(혹은 SMatrix의 CogVideo - 그런데那是 제가 본 것 중 최악의 쓰레기였습니다). 그래서 모두가 모든 걸 처리할 수 있었지만, 유일한 영원한 문제는 필요한 노드를 찾는 것이었습니다(사실, 여러분이 가지고 있는 다른 노드로 대체할 수도 있습니다).
원하는 Loras를 선택하세요. 제 것을 시도해보거나, 여러분의 것을 사용하세요. 최소한 동작은 합니다. 최소한 이걸 시작점으로 삼을 수 있습니다. 어떻게 작동하는지 이해한다면 말입니다. 또한 dpmppppmdpdpdpfpdgppgpgpg_2m_sde와 sgm_uniform도 사용해보세요. 아니면 lcm과 ddim_uniform도 사용해보세요(어떤 사람이 깃헙에 이걸 보고 "내가 지금까지 본 것 중 최고"라고 했습니다만, 저와 제 해상도에서는 눈이 항상 깨지네요). 또한 얼굴이 옷 아래로 가거나 화면 밖으로 나갈 때 얼굴 일관성이 사라집니다. 하지만 우리는 모두 이 문제를 알고 있습니다(단순히 "여성은 카메라를 바라보고 있다"는 프롬프트를 넣고 기대해보세요). 가장 좋은 결과는 이미지가 처음부터 당신을 바라볼 때입니다. 제가 그걸 봤을 때 충격을 받았습니다(저는 충격을 받을 수 있는 사람입니다).
오, 예, 신성한 경계의 증인들을 위해. 720p는 0.9, 600p는 0.89, 480p는 0.88입니다. 왜 그런지 물어보지 마세요. 또한 HIGH SD3Sampler가 8.5로 설정된 이유도 물어보지 마세요(보통과 별로 차이가 없습니다), LOV Noise는 4.5로 설정되었습니다. 저도 이유를 모르겠습니다. 더 나빠지지 않았고, 그게 괜찮습니다. 하지만 이 문제에 대해 논의에는 열려 있습니다.
내장된 방법으로 업스케일링하는 것을 싫어하기 때문에, 저質한 플라스틱 같은 것은 없습니다. 하지만 물론 추가하셔도 됩니다. 또한 해상도를 480p로 낮추면 더 나빠지지 않습니다. 하지만 720p가 어떤 결과를 내는지 봤기 때문에, 이제 그걸 잊을 수 없습니다.
업데이트 04:09: 제가 원했던 것을 계속할 동기가 부족합니다. 즉, 몸의 일관성(누군가 벗으면 그 비율이 그대로 유지되어야 함)입니다. 각각의 다른 요소에 대해 주의 깊게 Lora를 사용하는 것이 해법이며, 저는 이미 이것들을 여기에 모았습니다. 하지만 진짜로 작동하는 범용 Lora를 찾는 것은 어렵습니다(혹은 몸의 일관성을 망가뜨리거나, 얼굴은 더 심각하게 망가뜨리거나, 모든 시드가 동일하게 보입니다(예: oral insertion lora)). 저는 첫 번째-마지막 프레임에서 멈췄습니다. 왜냐하면 더 예측 가능하기 때문입니다. 제대로 된 wan2.2 vace를 기다리고 있습니다(네, fakewan이나 test_wan으로 WanVideo wf를 시도해봤습니다. 왜인지 저에게는 엄청나게 나빴습니다). H100용으로 로켓선체처럼 복잡한 큰 워크플로우(전체 venv를 다시 만들어야 하고, 한 번만 사용되는 많은 새로운 노드가 필요함)도 테스트해봤습니다. 하지만 모두 WanVideo 노드를 사용했습니다(그게 H100이 필요한 이유입니다). 결과는 그럴 가치가 없었고, 그래서 저는 WanVideo 노드를 별로 좋아하지 않습니다(그리고 스케줄러 옵션도 없습니다). 이 버전의 워크플로우의 일부 문제를 수정하고, 더 나은 Lora를 추가했으며, 심지어 노드를 직접 작성했습니다. 그러나 발표하지 않았습니다. 흥미로운 예시가 없었기 때문입니다. 저는 NSFW 콘텐츠를 올리고 싶지 않습니다. 하지만 제가 한 모든 테스트는 NSFW였습니다. 상상력과 동기가 부족했습니다.
