Yolkhead's Albums
세부 정보
파일 다운로드
이 버전에 대해
모델 설명
AI 및 ML을 위한 무료 리소스: patreon.com/yolkhead
Patreon의 모든 콘텐츠는 훌륭한 멤버들의 지원으로 100% 무료입니다. 따라서 이 자료들이 도움이 된다면, 그분들 덕분임을 기억해 주세요.
모든 생성된 이미지에는 여전히 메타데이터가 포함되어야 하므로, 그냥 Forge의 이미지 인스펙터에 드래그하면 됩니다. 인페인팅은 절대 없으며, 모든 결과는 직접 재현 가능해야 합니다. 저는 고해상도 생성 시 종종 hires.fix를 사용하지 않고, 대신 CFG를 매우 높게 설정해 원본 방식으로 생성합니다. 이는 누군가가 실제로 눈치채지 못하는 방식으로 자랑하는 것일 뿐이지만, 저는 이를 아주 즐깁니다.
버전:
CRUSH (sdxl)
여기서 앨범을 사전 저장하세요: https://artists.landr.com/055905712428
_generation_guide---------------------
sticky negative prompt 방법과 가장 잘 작동합니다: https://www.patreon.com/posts/sticky-negatives-119624467
CFG 10-20, DPM 2a 또는 DPM 3M SDE, UNIFORM 스케줄러, 스텝 수 15 - 60(많은 경우 15만으로도 충분하며, 때로는 11까지 낮출 수 있음)에서 시작하는 것을 추천합니다. 이 모델에는 하이퍼 모듈이나 그와 유사한 것이 포함되어 있지 않으며, 단지 높은 CFG 값이 일반적인 아티팩트 없이 정확한 임베딩을 의미하므로, 낮은 스텝 수와/또는 더 높은 해상도가 가능해집니다.
여러 LoRA를 테스트해보진 않았지만, 테스트한 것들에 따르면 LoRA는 일반적인 가중치의 약 1/10 정도가 필요합니다
_/end_generation_guide---------------
이 모델은 지금까지 제가 사용해본 가장 일반화된 모델입니다. 단순한 병합 모델로, 트리 계층을 사용하여 각 단계에서 50%/50% 가중치로 최종적으로 8개의 모델을 병합합니다.
아니요, 제가 무엇을 포함시켰는지는 모릅니다. 이것이 전부였고, 제가 어떤 모델을 포함시킬지 결정하기 위해 블라인드 이미지 테스트를 했고, 제 선입견이 한 방향으로 치우치지 않도록 이름을 변경했습니다.
본질적으로, 이 모델의 가중치는 사용자 선호도의 '평균'에 훨씬 더 가깝습니다. 제가 테스트한 모델들은 사용자들 사이에서 높은 선호도를 받은 것들이고, 그 중에서 더 나은 개인적 선호도 최적화를 바탕으로 필터링했습니다. 따라서 이 모델의 가중치는 특별히 강력하지 않으며, 원하는 신호 강도를 얻기 위해 높은 CFG를 사용하는 것이 일반적입니다.
이 말은, 이 모델 위에 학습을 할 경우 학습률을 훨씬 낮게 설정해야 한다는 의미입니다. 나중에 영상에서 그 이유를 설명드리겠지만, 저의 말을 믿으세요. 일반적인 학습률보다 수 개의 차원 낮은 학습률로 훨씬 더 나은 손실 곡선을 얻으실 수 있습니다. 이는 모델의 가중치 내 원래 신호를 상대성에 따라 유지하는 것과 관련이 있으며, 평균 회귀로 인해 매우 '독특한' 특성을 지닙니다. 그러나 이 주제는 추후 Patreon에서 다루겠습니다.
이 모델에는 DPM2a, DPM 3M SDE 또는 DDPM을 추천합니다. 특히 DPM 2a는 높은 CFG에서 이점을 얻는데, 추가된 잡음은 강력하고 정확한 벡터가 있다면 쉽게 처리할 수 있으며, 이 추가는 실수를 교정하는 데 유용한 정보를 제공하면서 과적합을 방지하는 데 도움이 됩니다.
PINK CONCRETE (flux)
앨범 듣기: https://open.spotify.com/album/6mb2KnxcVOIKZBzEiq2Mdg?si=EIlFSDTfSfaFJglMPttk4g
pink concrete 뮤직비디오: https://www.instagram.com/reel/DD4Ah0LObCe
이 모델과, 무엇이든 flux 파인튜닝과 함께 zer0int의 clip-L 파인튜닝을 사용하는 것을 강력히 추천합니다. 성능 향상은 정말 놀라울 정도입니다.
두 모델 사이에는 차이가 있으며, 어느 것이 더 나은지는 불확실합니다. 특정 프롬프트에 문제가 발생했을 때, 클립을 바꾸는 것으로 문제가 갑자기 해결될 수 있으므로 둘 다 보관하는 것이 좋습니다.
이 모델은 과거 SDXL 파인튜닝에서 사용했던 프로세스를 기반으로 구축되었지만, 여기서는 데이터셋에 훨씬 더 높은 품질의 이미지를 사용해 모델의 UNet이 의도치 않게 손상되지 않도록 했습니다. 일반적으로 모델의 품질이 높을수록 학습에 사용된 데이터셋의 품질에 더 많은 신경을 써야 하며, 품질의 "저하"는 주관적으로 원래 구성의 특성을 손상시킬 수 있습니다.
이것은 전반적인 향상입니다. 일부 flux 파인튜닝처럼 NSFW를 처리하지는 않지만, 공정하게 말하자면 현재 어떤 flux 파인튜닝도 SDXL과 비교해 NSFW 측면에서 앞서지 못하므로, 이는 무의미한 점입니다. 이 모델의 주요 목표는 기본 flux의 안전 훈련을 해제하여 UNet 품질과 전체적 일관성을 향상시키고, 향후 파인튜닝을 위한 출발점으로 삼는 것이었습니다(그리고 예상보다 더 잘 작동하는 것 같습니다).




















