type
status
date
slug
summary
category
tags
create_time
Dec 11, 2025 01:36 PM
icon
password
my_create_time
📝 前言
当下 AI 漫剧市场非常的火爆,我这边也最近一直在研究 AI 漫剧的自动化生成,就在这里记录一下探索的过程中遇到的人物一致性问题以及如何解决的。
🧭 背景介绍
AI 漫剧在制作时经常出现以下问题:
- 同一角色在不同镜头中 脸型变化明显
- 发型、刘海走势、发色细节不一致
- 服饰细节(纹理/扣子/腰带/纹样)自动丢失
- 动作或角度变化导致 显著换脸
- 多角色同框时出现 风格冲突
- 长篇连载中角色设定无法保持长期稳定
下面就来介绍几种处理方式。
🚀 人物一致性处理
1️⃣ 人物四视图UID生成
之前我们介绍过生成过人物的正面形象图,这还不够。
这里我们介绍第一种优化方式,生成一张包含人物角色正面、侧面、背面以及表情、配饰的UID图。
适用于大部分「图生图」工作流,例如:即梦、海螺、ComfyUI、常规生图 API。
提示词参考如下:
生成的样图如下:

最后通过垫这张图进行生成新的图,一般就会保持比较好的一致性。
2️⃣ Sora2 人物角色ID 生成
如果不想每次都垫图那么麻烦,也可以先只生成一个
无人物出现的场景图,然后再通过 Sora2 生成角色ID,最后在生成视频时,提示词中直接调用角色ID,也基本都能保持较好的一致性。整体流程如下:
1、在生成角色ID之前,需要先生成一段带有角色说话的视频;
2、然后再调Sora2 的
创建角色 Character 接口,获取角色ID3、最后在生视频的过程中,直接在提示词中将人物名称改为:@角色ID + 空格,即可生成人物一致性的视频出来。
这个好处是不需要垫图,缺点是不支持真人,不过咱们这里主要就是面向动漫的,所以没太大关系。
3️⃣ Lora 微调模型训练
最后还有一个高级点的方案,就是自己训练 Lora,然后通过关键词进行触发,基本人物训练少的只需几张图,多的也就20~30张即可。
现在 Lora 微调的门槛是越来越低了,再加上前不久阿里刚出的 Z-Image 模型,在本地可玩性也是越来越高了。
最关键的是最近Nano Banana 官方并发降低,成本都在上涨了,这时候用本地模型可能是更好的一个选择。
限于篇幅,后面再单独介绍一下 Lora 微调训练吧~
✅ 总结
AI 漫剧的人物一致性,本质上是一个【角色资产标准化】的问题。
通过本篇的三个方案,我们可以大幅降低换脸、发型错乱、服装丢细节等问题:
- 人物四视图 UID 设定图:
用「正侧背 + 表情 + UUID 标注」把角色长相、发型、服装与气质标准化,适用于即梦、海螺、ComfyUI 等各类图生图工作流,是最通用也最推荐先上的一层“地基”。
- Sora2 角色 ID 流程:
先通过一段带人物的视频提取「角色 ID」,后续在视频生成提示词中直接调用
@角色ID,即可在不同镜头、不同剧情中保持角色高度统一,尤其适合大量视频内容生产。- Lora 微调模型:
当有稳定角色、且产量较高时,可以考虑训练专属 Lora,用触发词随时召唤角色形象。配合本地模型(如 Z-Image),既能降低成本,又能获得更大的可控性和隐私空间。
实际项目中,这三种方式并不是互斥的:
可以先用「四视图 UID 设定」打好角色基础,再根据业务需求选择用 Sora2 角色 ID 或 Lora 微调去做更高级别的统一与放大。
只要前期把角色信息结构化,让模型“认识清楚这个人”,后续无论是漫剧长篇连载,还是多场景视频,都能更稳定地复现角色。
有关文章的任何疑问,欢迎您在底部评论区留言,一起交流~
- 作者:青萍叙事
- 链接:https://blog.lusyoe.com/article/ai-anim-character-consistency
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。







