咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >视频驱动的语义表情基动画方法 收藏

视频驱动的语义表情基动画方法

Semantic Blendshape Method for Video-Driven Facial Animation

作     者:王涵 夏时洪 Wang Han;Xia Shihong

作者机构:中国科学院计算技术研究所前瞻研究实验室/移动计算与新型终端北京市重点实验室北京100190 中国科学院大学北京100049 

出 版 物:《计算机辅助设计与图形学学报》 (Journal of Computer-Aided Design & Computer Graphics)

年 卷 期:2015年第27卷第5期

页      面:873-882页

核心收录:

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:“十二五”国家科技支撑计划课题(2013BAK03B07) 国家“八六三”高技术研究发展计划(2012AA011501) 国家自然科学基金(60970086) 

主  题:视频驱动人脸动画 表情基动画 语义表情 

摘      要:为了重用视频内容中的表情信息,提出一种语义表情构造与语义表情参数优化方法.首先从带有噪声的稀疏特征点中定义出人脸表情的语义信息;然后在语义表情空间中优化求解出最优表情参数,以提高人脸动画的真实感.该方法既不需要标定相机参数,也不需要预先建立表演者的3D人脸模型及其表情基,因此除了可用于网络视频的表情重用,也可用于开发实时在线的网络社交等应用.实验结果表明,对于头部摆动的俯仰角和侧角在[?15?,15?]范围内的原始视频,文中方法能够实时合成稳定、逼真的表情动画.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分