咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >自适应视听信息融合用于抗噪语音识别 收藏

自适应视听信息融合用于抗噪语音识别

Adaptive fusion of acoustic and visual information in noise-robust speech recognition

作     者:梁冰 陈德运 程慧 

作者机构:大连理工大学创新实验学院辽宁大连116024 哈尔滨理工大学计算机科学与技术学院黑龙江哈尔滨150080 哈尔滨工程大学计算机科学与技术学院黑龙江哈尔滨150001 

出 版 物:《控制理论与应用》 (Control Theory & Applications)

年 卷 期:2011年第28卷第10期

页      面:1461-1466页

核心收录:

学科分类:0711[理学-系统科学] 07[理学] 08[工学] 081202[工学-计算机软件与理论] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金资助项目(60572153) 黑龙江省博士后基金资助项目(LBH-Z09102) 哈尔滨理工大学青年科学研究基金资助项目(2009YF015) 中央高校基本科研业务费专项资金资助项目(DUT11RC(3)54) 

主  题:视听信息融合 语音识别 自适应权重 学习自动机 隐马尔科夫模型 

摘      要:为了提高噪音环境中语音识别的准确性和鲁棒性,提出了基于自适应视听信息融合的抗噪语音识别方法,视听信息在识别过程中具有变化的权重,动态的自适应于环境输入的信噪比.根据信噪比和反馈的识别性能,通过学习自动机计算视觉信息的最优权重;根据视听信息的特征向量,利用隐马尔科夫模型进行视听信息的模式匹配,并根据最优权重组合视觉和声音隐马尔科夫模型的决策,获得最终的识别结果.实验结果表明,在各种噪音水平下,自适应权重比不变权重的视听信息融合的语音识别性能更优.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分