咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于RoBERTa和对抗训练的中文医疗命名实体识别 收藏

基于RoBERTa和对抗训练的中文医疗命名实体识别

Chinese Medical Named Entity Recognition Based on RoBERTa and Adversarial Training

作     者:郭瑞 张欢欢 GUO Rui;ZHANG Huanhuan

作者机构:华东理工大学信息科学与工程学院上海200237 

出 版 物:《华东理工大学学报(自然科学版)》 (Journal of East China University of Science and Technology)

年 卷 期:2023年第49卷第1期

页      面:144-152页

学科分类:08[工学] 081203[工学-计算机应用技术] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

主  题:医疗命名实体识别 RoBERTa-wwm-ext-large 对抗训练 双向长短期记忆网络 条件随机场 

摘      要:BERT(Bidirectional Encoder Representations from Transformers)和神经网络模型相结合的方法目前已被广泛应用于中文医疗命名实体识别领域。但BERT在中文中是以字为粒度切分的,没有考虑到中文分词。而神经网络模型往往局部不稳定,即使微小的扰动也可能误导它们,导致模型的鲁棒性差。为了解决这两个问题,提出了一种基于RoBERTa(A Robustly OptimizedBERTPre-trainingApproach)和对抗训练的中文医疗命名实体识别模型(ATRBC)。首先,使用RoBERTa-wwm-ext-large(ARobustlyOptimizedBERTPre-training Approach-whole word masking-extended data-large)预训练模型得到输入文本的初始向量表示;其次,在初始向量表示上添加一些扰动来生成对抗样本;最后,将初始向量表示和对抗样本一同依次输入双向长短期记忆网络和条件随机场中,得到最终的预测结果。在CCKS 2019数据集上的实验结果表明,AT-RBC模型的F1值达到了88.96%;在Resume数据集上的实验结果表明,AT-RBC模型的F1值也达到了97.14%,证明了该模型的有效性。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分