视频驱动的语义表情基动画方法
Semantic Blendshape Method for Video-Driven Facial Animation作者机构:中国科学院计算技术研究所前瞻研究实验室/移动计算与新型终端北京市重点实验室北京100190 中国科学院大学北京100049
出 版 物:《计算机辅助设计与图形学学报》 (Journal of Computer-Aided Design & Computer Graphics)
年 卷 期:2015年第27卷第5期
页 面:873-882页
核心收录:
学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)]
基 金:“十二五”国家科技支撑计划课题(2013BAK03B07) 国家“八六三”高技术研究发展计划(2012AA011501) 国家自然科学基金(60970086)
摘 要:为了重用视频内容中的表情信息,提出一种语义表情构造与语义表情参数优化方法.首先从带有噪声的稀疏特征点中定义出人脸表情的语义信息;然后在语义表情空间中优化求解出最优表情参数,以提高人脸动画的真实感.该方法既不需要标定相机参数,也不需要预先建立表演者的3D人脸模型及其表情基,因此除了可用于网络视频的表情重用,也可用于开发实时在线的网络社交等应用.实验结果表明,对于头部摆动的俯仰角和侧角在[?15?,15?]范围内的原始视频,文中方法能够实时合成稳定、逼真的表情动画.