移动机器人的视觉检测与目标跟踪技术研究
作者单位:齐鲁工业大学
学位级别:硕士
导师姓名:张艳芳
授予年度:2024年
学科分类:080202[工学-机械电子工程] 08[工学] 080203[工学-机械设计及理论] 0804[工学-仪器科学与技术] 0802[工学-机械工程]
摘 要:随着人工智能技术的快速发展,移动机器人在工业物流领域的需求不断增长,具有视觉感知和目标跟踪性能的移动机器人应用场景越来越广泛。然而在实际应用中,存在目标遮挡、尺度变化等因素导致的检测性能不高,以及目标快速移动等造成的跟踪鲁棒性差问题。本文基于深度学习的视觉检测技术,通过优化网络结构,提高目标检测性能,并在此基础上对目标跟踪算法进行研究,利用基于ROS的Turtle Bot移动机器人进行算法移植和实验分析,实现移动机器人高精度目标识别和稳定跟踪。主要研究工作如下: (1)针对目标尺度变化、遮挡以及小目标分辨率低造成的误检、漏检等问题,对基于深度学习技术的检测算法进行了研究,在YOLOv5s的基础上增加小目标检测层,丰富特征信息,增强多尺度检测能力。基于Bi FPN网络结构,对YOLOv5s的特征融合进行改进。通过将主干网络中的浅层特征融入到检测层的深层特征,实现横向跨尺度融合方式,增强检测层中的目标信息,进一步提高检测性能。通过引入Soft_NMS后处理方法改进YOLOv5s,利用DIo U算法改进Soft_NMS的衰减方式,计算目标与被遮挡目标之间的重叠率,有效解决目标之间的遮挡问题。通过公开数据集进行模型训练,m AP.5和m AP.5.95相对于原始网络模型分别提升1.5%和6.1%,平均精度达到88%。 (2)针对传统跟踪算法的尺度适应性、跟踪鲁棒性等问题,对四种常用的相关滤波跟踪算法进行了研究,通过数据集进行了对比实验,验证算法的跟踪性能。针对目标遮挡或者模板漂移造成的目标丢失问题,引入目标丢失判别方法,提出了一种基于改进YOLOv5s模型的ECO-HC重检测跟踪方法,实现目标丢失后重新跟踪的功能,提高目标跟踪的稳定性和鲁棒性。 (3)利用Turtlebot2移动机器人和Kinect v2深度相机搭建硬件平台,将改进后的视觉检测与目标跟踪算法部署到Turtlebot2移动机器人。在ROS框架下设计系统的控制策略,通过室内室外真实环境进行实验验证,实现移动机器人的稳定跟随,验证了算法的有效性。