Outfit To Outfit - ControlNet (outfit2outfit)
詳細
ファイルをダウンロード
モデル説明
これはControlNetモデルです!このモデルにはControlNetが必要です!
モデルの詳細
このモデルは、対象の服装を変更しながら、対象、背景、ポーズを一定に保つことを目的としています。
txt2img、img2img、インペイントのいずれでも良好な結果を得られました。
Stable Diffusionで生成した画像や、自分で撮影した写真でも良好な結果を得られました。
インストール
.safetensorsファイルをControlNetの「models」ディレクトリに配置してください。このモデルを使用するには、Preprocessorに「none」を選択し、ControlNet Modelに「outfitToOutfit」を選択してください。
使用上のヒント
対象が明確に定義された画像ほど効果的です。
このモデルは低解像度(約512px付近)で最も効果的です。
- 高解像度で問題が発生した場合、まず低解像度で一度処理を行い、その後img2img(またはHires.fix付きtxt2img)をより低いノイズ低減強度で使用して、元の入力画像をこのControlNetモデルの入力として維持しながら、高解像度に拡大してください。
ControlNetの重みを1に設定する場合、CFGは2または3から始めることを推奨します。
高いCFG値と高いControlNet重みを組み合わせると、画像が焼けたような見た上がりになります。
ControlNetの重みを0.4、0.45、0.5、0.6、0.8、1で試してみてください。
重みが低いほど変更が大きくなり、重みが高いほど出力が入力に近づきます。
0.5未満はStable Diffusionモデルの影響が強く、0.5以上はControlNetモデルの影響が大きくなります。
img2imgまたはインペイントを使用する場合、ノイズ低減強度は1から始めることを推奨します。
- 0.75のノイズ低減強度も試してみてください。
インペイントを行う場合、「Masked content」に「latent nothing」を試してみてください。
高解像度の画像を生成する際は、モデルの重みを下げることを検討してください。
- 出力画像の解像度が高いほど、入力画像の内容を変更することが難しくなります。
出力が入力とあまり変わらない場合、プロンプトの重みを上げるか、ControlNetユニットのコントロール重みを下げるよう試してみてください。
OpenPose ControlNetなどの他のモデルともよく組み合わせて使用できます。
















