基于深度学习的旋转目标检测算法的研究与应用
作者单位:齐鲁工业大学
学位级别:硕士
导师姓名:李爱民
授予年度:2024年
学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 08[工学] 081104[工学-模式识别与智能系统] 080203[工学-机械设计及理论] 0802[工学-机械工程] 0835[工学-软件工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)]
主 题:旋转目标检测 遥感图像 小目标检测 Transformer 标签分配
摘 要:遥感图像目标检测技术在军事侦察、海洋监测、城市规划、灾害评估及救援等领域的应用广泛,是计算机视觉领域的一个重要研究方向。深入研究基于遥感图像的目标检测技术对推动相关实际应用的发展具有重要意义。 在遥感图像分析领域,检测的目标往往具有小尺寸、高密度的特征,并且背景复杂多变,特别是目标的非轴对称性和任意方向性都增加了目标检测的难度。近年来,旋转目标检测研究多采用基于锚框的框架,这些方法往往忽视了旋转目标的形状和方向属性,并引入了大量超参数,限制了其效能。同时,传统的水平边界框方法对于准确表征遥感图像中旋转目标的能力不足,而现有的解决方案主要通过角度回归或使用外接矩形方法,检测精度不高。本文在综合分析通用目标检测及遥感图像旋转目标检测现有方法的基础上,针对其局限性,提出改进方案。本文的主要研究内容和贡献包括: 1.提出一种无锚框旋转目标检测算法—Oriented Center Net,此算法能有效捕获任意方向目标的几何信息,并具有高精度和高速度的特点。算法选取了轻量级的骨干网络Swin Transformer,可以提供广泛的全局感受野并建立像素间联系,相较于传统卷积神经网络的骨干网络,展现出更优性能。另外,算法引入一种新颖的六参数角点偏移表示法以精确表示旋转目标,同时简化了从水平边界框到旋转边界框的转换过程。针对遥感图像中目标相对较小的特点,算法引入了高效的特征融合与采样策略,在预测模块中引入中心池化操作以增强小目标特征、降低背景噪声,进而有效提高中心点的响应。此外,算法重新定义了损失函数,为模型训练提供了更为精确的监督信息。 2.提出一种基于高斯分布的旋转目标检测算法—GRDet。算法通过自适应学习和使用点集表示旋转目标,从而规避了传统锚框方法对物体尺寸及方向的约束。算法引入了一个转换函数,将点集转换为精确的旋转边界框,实现对目标的精确定位。为了进一步优化算法性能,提出了一种基于高斯分布的动态标签分配策略,可以有效地分配正负样本。此策略能够根据旋转目标的尺寸和方向特征自适应调整学习策略。算法通过高斯分布模拟交并比(Io U)的计算,解决了传统的Io U计算方法在旋转目标检测中可能遇到的不可导问题。此外,算法还设计了一种动态空间质量约束策略,用于评估预测旋转边界框的质量,能够自适应地筛选出高质量的边界框,从而有效地引导模型进行更准确的目标定位。算法还采用了KFIo U损失函数并结合高斯中心点损失进行监督学习,以实现训练过程中的优化监督效果。 在公共数据集DOTA上对两种改进算法进行了大量的实验,验证了本文提出的Oriented Center Net和GRDet两种针对遥感图像的旋转目标检测方法的有效性、鲁棒性以及优秀的检测性能。