咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >低资源场景下基于联合训练与自训练的跨语言摘要方法 收藏

低资源场景下基于联合训练与自训练的跨语言摘要方法

Cross-Lingual Summarization Method Based on Joint Training and Self-Training in Low-Resource Scenarios

作     者:程绍欢 唐煜佳 刘峤 陈文宇 CHENG Shaohuan;TANG Yujia;LIU Qiao;CHEN Wenyu

作者机构:电子科技大学计算机科学与工程学院成都611731 

出 版 物:《电子科技大学学报》 (Journal of University of Electronic Science and Technology of China)

年 卷 期:2024年第53卷第5期

页      面:762-770页

核心收录:

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金企业联合基金重点项目(U22B2061) 

主  题:跨语言摘要 联合训练 低资源场景 机器翻译 自训练 

摘      要:随着全球化的不断发展,跨语言摘要任务已成为自然语言处理领域的一项重要课题。在低资源场景下,现有方法存在表征转换受限和数据利用不充分等问题。为此,该文提出了一种基于联合训练与自训练的跨语言摘要方法。该方法使用两个模型分别建模翻译任务和跨语言摘要任务,以统一输出端的语言向量空间,从而避免模型间表征转换受限的问题。此外,通过对齐平行训练对的输出特征和概率进行联合训练,增强模型间的语义共享。同时,在联合训练的基础上引入自训练技术,利用额外的单语摘要数据生成合成数据,有效缓解了低资源场景下数据稀缺的问题。实验结果表明,该方法在多个低资源场景下均优于现有对比方法,实现了ROUGE分数的显著提升。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分