咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >跨模态信息融合的端到端语音翻译 收藏

跨模态信息融合的端到端语音翻译

End-to-end Speech Translation by Integrating Cross-modal Information

作     者:刘宇宸 宗成庆 LIU Yu-Chen;ZONG Cheng-Qing

作者机构:模式识别国家重点实验室(中国科学院自动化研究所)北京100190 中国科学院大学人工智能学院北京100049 

出 版 物:《软件学报》 (Journal of Software)

年 卷 期:2023年第34卷第4期

页      面:1837-1849页

核心收录:

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金重点项目(U1836221) 

主  题:语音翻译 神经机器翻译 端到端模型 多模态学习 

摘      要:语音翻译旨在将一种语言的语音翻译成另一种语言的语音或文本.相比于级联式翻译系统,端到端的语音翻译方法具有时间延迟低、错误累积少和存储空间小等优势,因此越来越多地受到研究者们的关注.但是,端到端的语音翻译方法不仅需要处理较长的语音序列,提取其中的声学信息,而且需要学习源语言语音和目标语言文本之间的对齐关系,从而导致建模困难,且性能欠佳.提出一种跨模态信息融合的端到端的语音翻译方法,该方法将文本机器翻译与语音翻译模型深度结合,针对语音序列长度与文本序列长度不一致的问题,通过过滤声学表示中的冗余信息,使过滤后的声学状态序列长度与对应的文本序列尽可能一致;针对对齐关系难学习的问题,采用基于参数共享的方法将文本机器翻译模型嵌入到语音翻译模型中,并通过多任务训练方法学习源语言语音与目标语言文本之间的对齐关系.在公开的语音翻译数据集上进行的实验表明,所提方法可以显著提升语音翻译的性能.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分