咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >一种提高跨语言理解的NLP迁移学习 收藏

一种提高跨语言理解的NLP迁移学习

An NLP Migration Learning for Improving Cross-lingual Understanding

作     者:王坤 盛鸿宇 WANG Kun;SHENG Hongyu

作者机构:四川信息职业技术学院四川广元628017 北京联合大学机器人学院北京100101 

出 版 物:《西南大学学报(自然科学版)》 (Journal of Southwest University(Natural Science Edition))

年 卷 期:2024年第46卷第4期

页      面:153-163页

学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 08[工学] 081201[工学-计算机系统结构] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金项目(12104289) 

主  题:自然语言处理 多语言双向编码器表征量 迁移学习 跨语言 深度学习 

摘      要:随着互联网信息的发展,如何有效地表示不同语言所含的信息已成为自然语言处理(Natural Language Processing,NLP)领域的一项重要任务.然而,很多传统的机器学习模型依赖在高资源语言中进行训练,无法迁移到低资源语言中使用.为了解决这一问题,结合迁移学习和深度学习模型,提出一种多语言双向编码器表征量(Multi-lingual Bidirectional Encoder Representations from Transformers,M-BERT)的迁移学习方法.该方法利用M-BERT作为特征提取器,在源语言领域和目标语言领域之间进行特征转换,减小不同语言领域之间的差异,从而提高目标任务在不同领域之间的泛化能力.首先,在构建BERT模型的基础上,通过数据收集处理、训练设置、参数估计和模型训练等预训练操作完成M-BERT模型的构建,并在目标任务上进行微调.然后,利用迁移学习实现M-BERT模型在跨语言文本分析方面的应用.最后,在从英语到法语和德语的跨语言迁移实验中,证明了本文模型具有较高的性能质量和较小的计算量,并在联合训练方案中达到了96.2%的准确率.研究结果表明,该文模型实现了跨语言数据迁移,且验证了其在跨语言NLP领域的有效性和创新性.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分