360 Face Camera
详情
下载文件
模型描述
该 LoRA 使用总共 80 个视频(竖屏比例),每个视频 24 帧训练而成,仅训练了双块,因此文件大小仅为 172 MB,为总共 100 个训练轮次中的第 52 轮。
我建议强度设置为 1 至 1.5。
如果你使用 ComfyUI 的原生节点通过 Hunyuan 生成视频,我建议你测试使用采样器/调度器:dpmpp_2m + beta。
要使用它,你可以使用触发词:360c4m3r4,或遵循以下我认为效果非常好的提示结构:
360c4m3r4 场景以低角度特写展示 {CHARACTER DETAILS} 的面部和上半身。{BACKGROUND DETAILS}。{CHARACTER} 正在 {ACTION},当其靠近时,{mouth/nose} 明显可见。整个场景中,{CHARACTER} 的视角没有显著变化;焦点始终集中在 {CHARACTER} 的面部上。
示例:
360c4m3r4 场景以低角度特写展示一只约克夏犬的面部和上半身。背景为超市。这只约克夏犬似乎正朝观众走来,当其靠近时,嘴巴清晰可见。整个场景中,约克夏犬的视角没有显著变化;焦点始终集中在约克夏犬的面部上。
请进行测试和调整,找出最适合你需求的提示。
我使用了我基于 diffusion-pipe 的 fork 进行训练,该版本提供了基于 Gradio 的界面和 Docker 镜像,只需一条命令即可完成整个环境的搭建并自动下载模型。如需使用,请参考仓库 README 中的说明:https://github.com/alisson-anjos/diffusion-pipe-ui;或使用 Runpod 或 VastAI 的模板。
https://runpod.io/console/deploy?template=t46lnd7p4b&ref=8t518hht
文章:使用 diffusion-pipe 接口、Docker、RunPod 和 Vast.AI 训练 Hunyuan 视频 LoRA | Civitai
