咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于最大池化的图双注意力网络研究及应用 收藏
基于最大池化的图双注意力网络研究及应用

基于最大池化的图双注意力网络研究及应用

作     者:王静 

作者单位:河北师范大学 

学位级别:硕士

导师姓名:郭瑞强

授予年度:2020年

学科分类:0202[经济学-应用经济学] 02[经济学] 020205[经济学-产业经济学] 07[理学] 070104[理学-应用数学] 0701[理学-数学] 

主      题:通话数据 网络表示学习 图注意力模型 最大池化 

摘      要:电信运营商拥有海量的呼叫详细记录数据,其中由于通话产生的网络反映出人与人之间的社会网络。在此网络中既包含用户的个人属性信息,又包含个人的网络特征信息。如何对如此复杂的网络数据进行处理和分析成为数据挖掘领域的重要研究内容。图(graph)是一种数据结构,是对一组实体和实体之间的关系进行建模。近年来由于图结构的强大表现力,用机器学习方法分析图的研究越来越受到重视。网络表示学习是处理网络或者图结构数据的方法。基于网络表示学习的图卷积神经网络(Graph Convolutional Network,GCN)的思想是聚合节点的本地邻域以及属性信息来生成节点嵌入。图卷积神经网络作为一种处理图结构数据的方法具有较好的性能,因此GCN成为广泛研究和应用的图分析方法。图注意力网络(Graph Attention Network,GAT)是在GCN的基础上增加注意力机制,使邻域节点对中心节点进行有效的信息贡献,在预测时将注意力放在周围最相关的节点上,忽略不必要的信息。本文围绕基于注意力机制的图卷积神经网络模型和通话数据中客户流失问题展开研究,主要研究内容有以下几个方面:(1)对通话详细记录数据进行相关分析和数据预处理工作,并利用通话详情数据构建通话社交网络。分析了客户流失前后网络特性的变化,并构建了属性网络模型,为开展图卷积神经网络在图节点分类问题上的研究奠定了基础。(2)针对图注意力网络不能很好的增强注意力信息导致训练过程中收敛速度慢并且精确度不高的问题,提出一种基于双注意力的图神经网络模型。即在原来图注意力网络(GAT)的基础上增加纵向注意力的方法,来“增强注意力,强制节点学到不同节点对中间节点的特征贡献,使学到的模型精度更高,收敛速度更快。(3)针对已有的图神经网络泛化能力不足,本文基于图结构的特殊性提出图池化操作,该操作可以嵌入到任意图神经网络模型中,实验结果表明池化操作增强了模型的泛化能力,并从一定程度上改善了图卷积神经网络的过平滑问题,提高了模型的准确性。(4)将图神经网络模型应用到真实的社交网络中,用于电信客户流失预测。本文提出的模型与传统的随机森林、XGBoost以及GCN等深度学习方法比较在准确率和召回率等评价指标上都有显著提高。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分