自适应视听信息融合用于抗噪语音识别
Adaptive fusion of acoustic and visual information in noise-robust speech recognition作者机构:大连理工大学创新实验学院辽宁大连116024 哈尔滨理工大学计算机科学与技术学院黑龙江哈尔滨150080 哈尔滨工程大学计算机科学与技术学院黑龙江哈尔滨150001
出 版 物:《控制理论与应用》 (Control Theory & Applications)
年 卷 期:2011年第28卷第10期
页 面:1461-1466页
核心收录:
学科分类:0711[理学-系统科学] 07[理学] 08[工学] 081202[工学-计算机软件与理论] 0812[工学-计算机科学与技术(可授工学、理学学位)]
基 金:国家自然科学基金资助项目(60572153) 黑龙江省博士后基金资助项目(LBH-Z09102) 哈尔滨理工大学青年科学研究基金资助项目(2009YF015) 中央高校基本科研业务费专项资金资助项目(DUT11RC(3)54)
主 题:视听信息融合 语音识别 自适应权重 学习自动机 隐马尔科夫模型
摘 要:为了提高噪音环境中语音识别的准确性和鲁棒性,提出了基于自适应视听信息融合的抗噪语音识别方法,视听信息在识别过程中具有变化的权重,动态的自适应于环境输入的信噪比.根据信噪比和反馈的识别性能,通过学习自动机计算视觉信息的最优权重;根据视听信息的特征向量,利用隐马尔科夫模型进行视听信息的模式匹配,并根据最优权重组合视觉和声音隐马尔科夫模型的决策,获得最终的识别结果.实验结果表明,在各种噪音水平下,自适应权重比不变权重的视听信息融合的语音识别性能更优.