咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于知识蒸馏的神经机器翻译综述 收藏

基于知识蒸馏的神经机器翻译综述

Survey of Neural Machine Translation Based on Knowledge Distillation

作     者:马畅 田永红 郑晓莉 孙康康 MA Chang;TIAN Yonghong;ZHENG Xiaoli;SUN Kangkang

作者机构:内蒙古工业大学数据科学与应用学院呼和浩特010000 

出 版 物:《计算机科学与探索》 (Journal of Frontiers of Computer Science and Technology)

年 卷 期:2024年第18卷第7期

页      面:1725-1747页

核心收录:

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:内蒙古自治区自然科学基金(2020MS06026) 

主  题:机器翻译 神经机器翻译 知识蒸馏 模型压缩 

摘      要:机器翻译(MT)是利用计算机将一种语言转换为与其同语义的另一种语言的过程。随着神经网络的提出,神经机器翻译(NMT)作为一种强大的机器翻译技术,在自动翻译领域和人工智能方向上取得了显著成功。由于传统神经翻译模型存在参数、结构冗余的问题,提出了使用知识蒸馏(KD)技术手段对神经机器翻译进行模型压缩和加速推理,该方法在机器学习和自然语言处理领域引起了广泛的关注。主要从评价指标、技术创新等角度对各种引入知识蒸馏的翻译模型进行了系统的考察和比较。首先简要回顾了机器翻译的发展历程、主流框架和评价指标;接着详细介绍了知识蒸馏技术;然后分别从多语言模型、多模态翻译、低资源语言以及自回归和非自回归四个角度详述了基于知识蒸馏的神经机器翻译发展方向,并简要介绍其他领域的研究现状;最后针对现有的大语言模型、零资源语言及多模态机器翻译所存在的问题进行分析,展望神经机器翻译发展趋势。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分