【资料图】

西安交通大学的研究人员提出了SadTalker模型,通过从音频中学习生成3D运动系数,使用全新的3D面部渲染器来生成头部运动,可以实现图片+音频就能生成高质量的视频。为了实现音频驱动的真实头像视频生成,研究人员将3DMM的运动系数视为中间表征,并将任务分为两个主要部分,旨在从音频中生成更真实的运动系数,并单独学习每个运动以减少不确定性。该技术可以应用于数�(站长之家)

推荐内容