Astigmatism (formerly 'Semantic Shift')

세부 정보

파일 다운로드

모델 설명

17-01-2025 시작

좋습니다. 가장 최신의 난시 양성 +0.6이 도착했습니다. 정말 정말 훌륭하지만, 모든 것처럼, 과적합을 줄이고 최상의 결과를 얻기 위해 0.5와 혼합하는 것을 추천합니다. 나중에 LoRA 병합을 검토하여 이 단계에서 '최적의' 난시를 쉽게 패키징할 수 있는지 확인해보겠습니다.

모두 즐겁게 사용하시길 바랍니다. 현재 0.6용 매우 큰 음성 LoRA를 개발 중이지만, 더 많은 관심이 필요하여 학습에 조금 시간이 걸릴 것입니다. 하지만 확실히 준비 중이며, 상당한 진전이 될 것이라 생각합니다.

17-01-2025 종료





---

0.5b 이후에는 단순히 0.5b와/또는 -0.5b를 실험해보시기를 추천합니다.

음성 LoRA를 사용할 때는 CFG를 처음부터 높게 설정하세요. 이것이 주요 장점입니다.

또한 소량으로 창의성을 높일 수 있지만, 일반적으로 +0.5b가 훨씬 작은 데이터셋을 가진 상태에서도 강력한 성능을 발휘합니다.

아래는 0.5b 이전 버전을 위한 제가 이전에 작성한 내용입니다:
---------------------
초보자분들께는 다음 혼합을 추천드립니다(다음 주 안에 4개의 LoRA를 로드하는 것보다 VRAM을 훨씬 적게 사용하는 혼합 LoRA를 출시할 예정입니다. lol)

난시 +0.5
난시 -0.5
난시 +0.4b
난시 -0.2

+는 각각 0.33으로,
-는 각각 -0.33으로 설정합니다.

이는 학습 과정에서의 과적합과 제 실수 때문입니다. 제한된 자원으로 이러한 오류를 직접 해결하려면(이를 위해서는 LoRA의 수많은 반복 학습이 필요하며, 최적의 설정을 테스트하고 찾기 위해 제가 감당할 수 없는 비용이 듭니다) 혼합을 사용하여 과적합을 완화하고 일반적으로 성능을 향상시키는 것이 더 나은 방법입니다. Civitai의 수많은 병합 체크포인트(예: 새 버전을 이전 버전에 병합한 것들)를 보면 이를 확인할 수 있습니다.

기본적으로, 이전 버전은 새 버전보다 어떤 개념을 더 잘 이해할 수 있고, 반대로 새 버전이 더 잘 이해할 수도 있습니다. 하지만 근본적으로 버전이 대부분 개선되었다면, 병합 과정은 시간이 지남에 따라 모델이 더 나은 일반화 능력을 갖추도록 이끌 것입니다. 이 LoRA는 모델의 일반화 및 능력에 직접적으로 초점을 맞추고 있으며, 예외가 아닙니다.

여러분과 이 커뮤니티를 사랑합니다.


자원을 보유하고 있으며 추가 학습에 협력하고 싶은 분은 저에게 연락주세요. 프롬프트 준수도를 크게 향상시킨 성과를 거둔 바 있으며, 단단한 커뮤니티 노력으로 이 성과를 더욱 확장할 수 있을 것이라 생각합니다.


이 LoRA를 조정하는 방법을 이해하려면 사용된 가중치를 신중히 살펴보세요. 마치 렌즈를 통해 보는 것처럼 초점을 조정하는 것과 비슷합니다. 모든 프롬프트와 체크포인트 조합은 서로 다른 요구사항을 가지지만, 결국 대부분의 경우 이전에는 작동하지 않았던 특정 범위 내에서 준수도를 조정할 수 있습니다.

제 ADHD와 시간 제약으로 제가 원하는 대로 글을 쓰는 것이 현재는 불가능하지만, 곧 이 현상의 "이유"에 대한 영상을 제작해야 할 것 같습니다. 물론 그 영상은... 혼란스러울 것입니다.




이 모델은 제가 개발한 "불안정(Unsettling)" LoRA의 작업을 기반으로 합니다. 이 LoRA에서 생성된 일부 이미지와, 그 LoRA의 후속 이미지들, 그리고 제가 실험한 기법들을 사용합니다.

이 LoRA의 기본 목표는 SDXL을 "의미적으로 전이"시켜, 기존에 특정 의미를 가진 용어들이 내부적으로 일관되게 완전히 다른 방식으로 해석되도록 하는 것입니다. 이 기법은 "불안정" LoRA에서 부분적으로 사용했지만, 과적합되어 있었습니다. 그 후, "좋은" 프롬프트는 내부 이해가 전이되더라도 여전히 "좋은" 상태를 유지하며, 단지 다른 축에서 작동한다는 점에 흥미를 느꼈습니다. 즉, 모델의 '뇌'를 지향적으로 조정하면, 독특하고 흥미로운 프롬프트가 여러 새로운 독특한 주제로도 독특하고 흥미로운 이미지를 생성할 수 있습니다.

어떻게 했나요?

SDXL 내부의 과적합 영역을 찾아 목표로 삼았습니다. 모나리자, 창조의 기둥 등이 그 예이며, 이들을 새로운 이미지로 전환했습니다. 예상했듯이, 이는 수정된 이미지와 연결된 전체 모델의 개념 인식 방식에 파급 효과를 일으켰고, 그 효과는 매우 컸습니다.


업데이트

이 LoRA의 목표는 초기와 비교해 크게 변화했습니다. 이제는 매우 작은 학습 데이터셋을 사용하여 모델의 과적합 영역을 타겟으로 삼고, 일반화 능력을 향상시키는 데 초점을 맞추어 SDXL의 전반적인 프롬프트 준수도와 승률을 개선하는 데 사용되고 있습니다.

이 과정의 부수적 효과로, 임의의 해상도로 이미지를 생성하는 것이 훨씬 쉬워졌습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.