Deep Negative V1.x
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
이 임베딩은 무엇이 진짜 이름도 없이 싫증나는지 알려줄 것입니다 🤢🤮
그러니 꼭 음성 프롬프트에 넣어주세요 😜
⚠ 이 모델은 SDXL용으로 훈련되지 않았으며, SDXL에서 사용 시 예기치 않은 결과를 초래할 수 있습니다.
SDXL을 사용하신다면 다음을 추천드립니다 👇
다른 딥네거티브:
포니 버전: /model/831971
SDXL 버전: /model/407448
주요 질문과 답변
- TI 모델은 어떻게 사용하나요?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion
- 음성 프롬프트란 무엇인가요?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Negative-prompt
[특별 안내] 웹UI에서 다음 오류 메시지가 나타날 경우:
- CUDA: CUDA error: device-side assert triggered
- Assertion -sizes[i] <= index && index < sizes[i] && "index out of bounds" failed
- XXX object has no attribute 'text_cond'
75T가 아닌 다른 모델 버전을 사용해보세요.
> 이유는 대부분의 스크립트들이 너무 긴 음성 프롬프트(75 토큰 이상)를 올바르게 처리하지 못하기 때문입니다. 따라서 더 작은 토큰 수 모델을 선택하면 상황이 개선됩니다.
[업데이트: 230120] 이 모델은 어떤 기능을 하나요?
이 임베딩은 손상된 인간 해부학, 불쾌한 색상 조합, 뒤집힌 공간 구조 등과 같은 부자연스럽고 역겨운 구성 및 색 구성 요소를 학습합니다. 이를 음성 프롬프트에 포함시키면 이러한 문제를 상당히 효과적으로 줄일 수 있습니다.
-
2T, 4T, 16T, 32T란 무엇인가요?
토큰당 벡터 수
[업데이트: 230120] 64T, 75T는 무엇인가요?
64T: 다양한 데이터셋에서 30,000단계 이상 훈련
75T: 임베딩 최대 크기 제한, 특수 데이터셋(여러 SD 모델에 의해 생성되고 특수 역처리된 데이터)에서 10,000단계 훈련
어떤 것을 선택해야 하나요?
75T: 가장 사용하기 쉬운 임베딩. 특수한 방식으로 정확한 데이터셋에 의해 훈련되었으며, 거의 부작용이 없음. 다양한 사용 사례를 충분히 커버할 수 있는 정보를 포함하고 있음. 다만, 일부 "잘 훈련된 모델"에는 효과가 덜 미칠 수도 있고, 변화가 부드럽고 지나치게 뚜렷하지 않을 수 있음.
64T: 모든 모델에 적합하나 부작용이 있음. 최적의 가중치를 찾기 위해 약간의 튜닝이 필요함. 추천 설정: [( NG_DeepNegative_V1_64T :0.9) :0.1]
32T: 유용하지만 너무 큼
16T: 나쁜 해부학을 그리는 확률을 줄이지만, 얼굴이 추잡해질 수 있음. 건축 수준 향상에 적합
4T: 나쁜 해부학을 그리는 확률을 줄이지만, 조명과 그림자에 미치는 영향은 미약함
2T: 75T처럼 사용하기 쉬우나, 효과는 약간 떨어짐
추천 활용 방법
이 임베딩은 역겨운 개념을 생성하는 법을 학습하기 때문에, 사진 품질을 정확히 향상시키는 데는 제한이 있습니다. 따라서 (최하품질, 저품질, 로고, 텍스트, 워터마크, 사용자명) 등의 음성 프롬프트와 함께 사용하는 것이 가장 좋습니다.
물론, 유사한 다른 음성 임베딩과 함께 사용하는 것도 전혀 괜찮습니다.
보다 많은 예시 및 테스트
건물 그리기: https://imgur.com/5aX9yrP
초상화 (PureErosFace 사용): https://imgur.com/1Lqq595 https://imgur.com/V5kXBXz
융합 본체 교정:
어떻게 작동하나요?
딥드림 알고리즘을 사용하여 SD가 정말로 역겨운 것들을 배우게 하였습니다. 데이터셋은 이미넷-미니(데이터셋에서 임의로 1000개 이미지 선정)입니다.
딥드림은 정말정말정말정말로 역겨운 결과를 낳으며, 이 모델을 훈련하는 과정에서 실제 신체적 불쾌감을 경험할 정도였습니다 😂



