咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >双编码端高分辨率遥感影像语义分割算法 收藏

双编码端高分辨率遥感影像语义分割算法

作     者:吴梦可 高心丹 

作者机构:东北林业大学计算机与控制工程学院 

出 版 物:《计算机科学与探索》 (Journal of Frontiers of Computer Science and Technology)

年 卷 期:2024年

核心收录:

学科分类:0810[工学-信息与通信工程] 08[工学] 081002[工学-信号与信息处理] 

基  金:国家自然科学基金项目(31770768) 黑龙江省揭榜挂帅项目(Ztest221500001) 

主  题:高分辨率遥感影像 语义分割 卷积神经网络 Swin Transformer 

摘      要:遥感影像具有多尺度对象、复杂背景、不均衡类别等特点。基于卷积神经网络(Convolutional Neural Network,CNN)的语义分割算法难以捕捉到影像的全局特征,导致分割效果不佳。针对以上问题,利用Swin Transformer的全局特征提取能力,提出了双编码端高分辨率遥感影像语义分割算法DEGFNet(Dual Encoders and Global Local Transformer Feature Refinement Network)。首先,设计特征融合模块(Feature Fusion Block,FFB)将Swin Transformer捕获的全局特征引入编码端,应对多尺度对象带来的挑战,同时,在Swin Transformer中设计空间交互模块(Spatial Interaction Block,SIB),降低复杂背景样本带来的负面影响;其次,在解码端引入全局-局部注意力模块(Global Local Transformer Block,GLTB)和特征细化模块(Feature Refinement Block,FRB),来更好地利用编码端提取的信息,提高语义分割的精确性;最后,采用交叉熵损失和Dice Loss组成的混合损失函数训练模型,减轻样本类别不均衡带来的消极影响。在Vaihingen数据集上,宏观平均F1值(macro-F1,mF1)、平均交并比(mean Intersection over Union,mIoU)和整体准确率(Overall Accuracy,OA)指标分别达到91.9%、84.8%和92.4%,在LoveDA数据集上,mIoU指标达到55.0%,均展现出了更好的语义分割效果和良好的泛化性。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分