
AniTalker是一款开源照片+音频视频生成器框架 ,通过身份解耦面部运动编码制作生动且多样化的说话面孔,可将单个静态肖像照片和输入音频转换为具有自然流动动作的动画对话视频,生成的结果的每一列都使用具有相似姿势和表情的相同控制信号,但包含一些随机变化,展示了我们的多样性产生的结果。
AniTalker,这是一个创新框架,旨在从单个肖像中生成栩栩如生的说话面孔。现有模型主要关注唇形同步等语言线索,无法捕捉面部表情和非语言线索的复杂动态,与此不同的是,AniTalker 采用了通用的运动表示。这种创新的表现方式有效地捕捉了广泛的面部动态,包括微妙的表情和头部运动。
AniTalker 通过两种自监督学习策略增强运动描绘:第一种涉及从同一身份内的源帧重建目标视频帧以学习微妙的运动表示,第二种使用度量学习开发身份编码器,同时主动最小化身份之间的互信息和运动编码器。这种方法确保运动表示是动态的并且没有特定于身份的细节,从而显着减少对标记数据的需求。
此外,扩散模型与方差适配器的集成允许生成多样化且可控的面部动画。这种方法不仅展示了 AniTalker 创建详细且真实的面部动作的能力,而且还强调了其在为现实世界应用制作动态头像方面的潜力。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END






![百度网盘直链解析彻底解除百度云限速限制[利用IDM工具在线解析网页版]-MOHE素材库-设计行业的乐园,各类素材的矿山!](http://mohe-sc.com/wp-content/uploads/2021/07/baiduwangpan-400x273.png)






![RVC [ Retrieval based Voice Conversion ] GitHub上一款基于 VITS语音合成 系统开源工具 支持CPU/GPU运行 AI变声器主体 + 66个模型 + 本地部署教程-MOHE素材库-设计行业的乐园,各类素材的矿山!](https://www.mohe-sc.com/wp-content/uploads/2025/04/RVC-Retrieval-based-Voice-Conversion-GitHub上一款基于-VITS语音合成-系统开源工具-AI变声器主体-66个模型-本地部署教程-800x450.jpg)




请登录后查看评论内容