咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于技能网络的通用自然语言生成模型 收藏

基于技能网络的通用自然语言生成模型

Generic Natural Language Generation Model Based on Skill Network

作     者:廖俊伟 程帅 LIAO Junwei;CHENG Shuai

作者机构:电子科技大学计算机科学与工程学院四川成都611731 

出 版 物:《中文信息学报》 (Journal of Chinese Information Processing)

年 卷 期:2024年第38卷第3期

页      面:141-151页

核心收录:

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金(61976043) 

主  题:自然语言生成 多任务模型 稀疏激活模型 技能网络 

摘      要:使用多任务训练的自然语言生成模型仅使用一个模型即可完成各种不同的自然语言生成任务。但这种所有任务共享所有参数的模型,无法清楚地知道模型的每一部分参数学到了什么技能。为了根据不同的任务选择激活不同的模型参数,该文提出了一种基于稀疏激活的通用自然语言生成模型(SkillNet-NLG)。与传统的稠密模型在执行任务时激活所有的模型参数不同,SkillNet-NLG在执行任务时,首先依据任务预先定义一组完成任务所需要的技能,然后根据定义的技能选择性地激活与技能相关的模型参数。这种模型设计使其能够通过正确地选择与任务相关的技能来高效地学习新的任务。在中文自然语言生成任务上的实验结果表明,首先,在仅使用一个模型的情况下,SkillNet-NLG在常见的五个自然语言生成任务中的四个上面超过了当前最好方法;其次,SkillNet-NLG的表现优于另外两类多任务基线模型(稠密模型和混合专家模型),并取得了与针对特定任务单独训练的模型相当的性能;最后,当应用到新任务上时,SkillNet-NLG相较于所有基线方法取得了更好的结果,验证了该文所提出的方法对于学习新任务的有效性。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分