咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >融合预训练语言模型和标签依赖知识的关系抽取方法 收藏

融合预训练语言模型和标签依赖知识的关系抽取方法

Combination of Pre-trained Language Model and Label Dependency for Relation Extraction

作     者:赵超 谢松县 曾道建 郑菲 程琛 彭立宏 ZHAO Chao;XIE Songxian;ZENG Daojian;ZHENG Fei;CHENG Chen;PENG Lihong

作者机构:长沙理工大学计算机与通信工程学院湖南长沙410114 湖南数定智能科技有限公司湖南长沙410003 湖南师范大学智能计算与语言信息处理湖南省重点实验室湖南长沙410081 广州市公安局指挥中心情报信息处广东广州510030 

出 版 物:《中文信息学报》 (Journal of Chinese Information Processing)

年 卷 期:2022年第36卷第1期

页      面:75-82页

核心收录:

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:广州科技计划(2019030010) 湖南省自然科学基金(2020JJ4624) 湖南省教育厅重点项目(19A020) 

主  题:关系抽取 预训练模型 标签依赖 图卷积神经网络 

摘      要:关系抽取旨在从未经标注的自由文本中抽取实体间的关系。然而,现有的方法大都孤立地预测每一个关系而未考虑关系标签相互之间的丰富语义关联。该文提出了一种融合预训练语言模型和标签依赖知识的关系抽取模型。该模型通过预训练模型BERT编码得到句子和两个目标实体的语义信息,使用图卷积网络建模关系标签之间的依赖图,并结合上述信息指导最终的关系分类。实验结果显示,该文方法性能相较于基线方法得到了显著提高。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分