GAOGAO-LUMINA

세부 정보

파일 다운로드

모델 설명

GAOGAO-LUMINA

NETA-LUMINA의 단순 미세 조정

무엇인가요?

간단히 말해: 이 모델은 NETA-LUMINA 기본 모델을 기반으로 수동으로 선별한 10,000장의 이미지로 학습한 결과물입니다.

무엇을 할 수 있나요?

NETA-lumina와 유사하지만, 이미지 품질이 약간 더 좋고, 사진에 더 많은 세부 정보를 추가합니다.

왜 V0.1인가요?

음... 이 모델을 학습하는 도중 클라우드에 배포된 머신이 오류를 발생시켜 실패했습니다. 학습을 다시 시작하려면 시간이 더 필요할 것 같고, 더 과학적이고 합리적인 방법을 사용하고 싶습니다.

어떻게 사용해야 하나요?

한 문장으로 요약하면: 1girl/1boy를 사용한 후 자연어를 이어주세요. 그러나 이 모델을 단독으로 사용하는 것은 추천하지 않으며, 다른 스타일 LoRA와 함께 사용하는 것을 강력히 권장합니다. 태그를 사용하는 것은 어느 정도 도움이 되지만, 모델의 잠재력을 완전히 이끌어내지는 못합니다.

여러분이 처음으로 NETA-lumina 모델을 사용하신다면, NETA.ART가 작성한 공식 튜토리얼을 확인해 보시길 추천합니다. 이전 모델들인 SDXL(ILL/NOOB)이나 SD1.5처럼 태그에 크게 의존하지 않고, NETA-lumina에서는 프롬프트를 주로 자연어로 구성해야 합니다.

또한, 여기에서 제공하는 것은 주 모델 파일만입니다. VAE와 gemma2는 별도로 다운로드해야 합니다.

향후 계획은?

첫 번째 목표는 버전 1.0을 출시하는 것입니다.

지원해 주세요?

QQ 그룹 1020622167에 가입하여 함께 이야기하세요.


아래는 잡담입니다. 이 내용들은 NETA-LUMINA에 관한 일반적인 지식과 팁이며, 대부분 다른 사람들과의 대화, 제 관찰, 그리고 타인들의 경험에서 비롯되었습니다. 일부 내용은 부정확할 수 있으니, 댓글에 자신의 경험이나 통찰을 자유롭게 남겨주세요.

  1. NETA-LUMINA는 자연어 모델입니다. 즉, 태그에 대한 지원은 사실상 매우 낮습니다. 비록 학습 데이터의 약 20%가 태그로 구성되었다는 보고가 있지만, 실제 사용에서는 태그 지원이 재앙적이라고 표현할 수 있습니다. 이에 대한 보다 타당한 설명은: Lumina가 Gemma를 텍스트 인코더로 사용하며, Gemma는 태그를 분석하도록 특별히 설계되지 않았기 때문에, 입력한 태그가 LLM의 토크나이저에 의해 매우 세분화된 문구 집합으로 잘려진다는 것입니다.

  2. LoRA를 학습할 때 순수 태그로 학습할 수는 있지만, 그 대가로는 매우 느린 수렴과 노력에 비해 품질이 낮아지는 결과가 따릅니다. (만약 여러분이 매우 부유하시다면 이 점은 무시할 수 있습니다.)

  3. 시스템 프롬프트는 필수적입니다. 이는 마치 트리거 단어와 같습니다. 기본 모델과 LoRA 모두 학습 과정에서 시스템 프롬프트가 포함되었으므로, 생성 시에는 이를 제거할 이유가 없습니다.

  4. 아티스트 태그에 관해, 많은 아티스트 태그가 반응하지 않거나 부정적인 영향을 미치는 이유는 위에서 언급했습니다. LLM은 이러한 아티스트 이름에 대한 고유 토큰을 실제로 가지고 있지 않기 때문에 학습 과정에서 반드시 분해됩니다. 일부 아티스트 태그는 2~3개의 토큰만 차지하는데, 이는 토크나이저가 너무 많이 분해하지 않기 때문에 스타일 적합에 비교적 좋습니다. 제 실제 관찰에서도 이를 확인했습니다: 토큰 수가 적은 아티스트 태그가 더 잘 적합됩니다. 반대로 일부 아티스트 태그는 토큰 길이가 너무 길어 적합도가 매우 낮습니다.

  5. 지식 문제에 관해, NETA-LUMINA는 실제로 광범위한 지식을 보유하고 있지만, 여러 문제로 인해 이 지식을 쉽게 활용하기 어렵습니다. 제 관찰에 따르면, 이러한 가중치는 너무 혼란스러울 수 있습니다. LoRA는 이 문제에 도움이 될 수 있습니다.

下面是中文介绍:

GAOGAO-LUMINA

NETA-LUMINA의 단순 미세 조정

무엇인가요?

간단히 말해: 이 모델은 NETA-LUMINA 기본 모델을 기반으로 수동으로 선별한 10,000장의 이미지로 학습한 결과물입니다.

무엇을 할 수 있나요?

NETA-lumina와 유사하지만, 이미지 품질이 약간 더 좋고, 사진에 더 많은 세부 정보를 추가합니다.

왜 V0.1인가요?

음... 이 모델을 학습하는 도중 클라우드에 배포된 머신이 오류를 발생시켜 실패했습니다. 학습을 다시 시작하려면 시간이 더 필요할 것 같고, 더 과학적이고 합리적인 방법을 사용하고 싶습니다.

어떻게 사용해야 하나요?

한 문장으로 요약하면: 1girl/1boy를 사용한 후 자연어를 이어주세요. 그러나 이 모델을 단독으로 사용하는 것은 추천하지 않으며, 다른 스타일 LoRA와 함께 사용하는 것을 강력히 권장합니다. 태그를 사용하는 것은 어느 정도 도움이 되지만, 모델의 잠재력을 완전히 이끌어내지는 못합니다.

여러분이 처음으로 NETA-lumina 모델을 사용하신다면, NETA.ART가 작성한 공식 튜토리얼을 확인해 보시길 추천합니다. 이전 모델들인 SDXL(ILL/NOOB)이나 SD1.5처럼 태그에 크게 의존하지 않고, NETA-lumina에서는 프롬프트를 주로 자연어로 구성해야 합니다.

또한, 여기에서 제공하는 것은 주 모델 파일만입니다. VAE와 gemma2는 별도로 다운로드해야 합니다.

향후 계획은?

첫 번째 목표는 버전 1.0을 출시하는 것입니다.

지원해 주세요?

QQ 그룹 1020622167에 가입하여 함께 이야기하세요.


아래는 잡담입니다. 이 내용들은 NETA-LUMINA에 관한 일반적인 지식과 팁이며, 대부분 다른 사람들과의 대화, 제 관찰, 그리고 타인들의 경험에서 비롯되었습니다. 일부 내용은 부정확할 수 있으니, 댓글에 자신의 경험이나 통찰을 자유롭게 남겨주세요.

  1. NETA-LUMINA는 자연어 모델입니다. 즉, 태그에 대한 지원은 사실상 매우 낮습니다. 비록 학습 데이터의 약 20%가 태그로 구성되었다는 보고가 있지만, 실제 사용에서는 태그 지원이 재앙적이라고 표현할 수 있습니다. 이에 대한 보다 타당한 설명은: Lumina가 Gemma를 텍스트 인코더로 사용하며, Gemma는 태그를 분석하도록 특별히 설계되지 않았기 때문에, 입력한 태그가 LLM의 토크나이저에 의해 매우 세분화된 문구 집합으로 잘려진다는 것입니다.

  2. LoRA를 학습할 때 순수 태그로 학습할 수는 있지만, 그 대가로는 매우 느린 수렴과 노력에 비해 품질이 낮아지는 결과가 따릅니다. (만약 여러분이 매우 부유하시다면 이 점은 무시할 수 있습니다.)

  3. 시스템 프롬프트는 필수적입니다. 이는 마치 트리거 단어와 같습니다. 기본 모델과 LoRA 모두 학습 과정에서 시스템 프롬프트가 포함되었으므로, 생성 시에는 이를 제거할 이유가 없습니다.

  4. 아티스트 태그에 관해, 많은 아티스트 태그가 반응하지 않거나 부정적인 영향을 미치는 이유는 위에서 언급했습니다. LLM은 이러한 아티스트 이름에 대한 고유 토큰을 실제로 가지고 있지 않기 때문에 학습 과정에서 반드시 분해됩니다. 일부 아티스트 태그는 2~3개의 토큰만 차지하는데, 이는 토크나이저가 너무 많이 분해하지 않기 때문에 스타일 적합에 비교적 좋습니다. 제 실제 관찰에서도 이를 확인했습니다: 토큰 수가 적은 아티스트 태그가 더 잘 적합됩니다. 반대로 일부 아티스트 태그는 토큰 길이가 너무 길어 적합도가 매우 낮습니다.

  5. 지식 문제에 관해, NETA-LUMINA는 실제로 광범위한 지식을 보유하고 있지만, 여러 문제로 인해 이 지식을 쉽게 활용하기 어렵습니다. 제 관찰에 따르면, 이러한 가중치는 너무 혼란스러울 수 있습니다. LoRA는 이 문제에 도움이 될 수 있습니다.

이 모델로 만든 이미지

이미지를 찾을 수 없습니다.