基于激光雷达和相机信息融合的道路目标检测方法
作者单位:重庆理工大学
学位级别:硕士
导师姓名:陈哲明;赵国才
授予年度:2024年
学科分类:080904[工学-电磁场与微波技术] 0810[工学-信息与通信工程] 0809[工学-电子科学与技术(可授工学、理学学位)] 08[工学] 081105[工学-导航、制导与控制] 080203[工学-机械设计及理论] 0838[工学-公安技术] 081001[工学-通信与信息系统] 0802[工学-机械工程] 081002[工学-信号与信息处理] 0825[工学-航空宇航科学与技术] 0811[工学-控制科学与工程]
摘 要:随着汽车保有量的快速增长,道路交通安全成为各国重点关注问题。在复杂道路环境下,智能汽车能从根本上减少或避免交通事故发生,从而保障道路行驶安全,因此智能驾驶已经成为国内外汽车行业重点研究方向。环境感知技术是智能驾驶系统中关键模块之一,也是提前规划路径和决策判断的重要依据。环境感知对目标的精准识别将直接影响汽车的行驶安全,也是决定智能汽车在复杂环境中能否得到应用的关键。在复杂多变的真实道路交通环境中,单一车载传感器在行驶过程中无法获得全面的周围环境信息,而多传感器的融合可以结合不同传感器的优点,来弥补其自身的不足。本文主要聚焦于视觉和雷达融合后在不同道路环境的目标检测研究。多传感器信息融合提高了对目标的检测精度,主要的研究工作如下: (1)视觉道路目标检测算法研究。针对远距离的小目标在图像上的像素少,容易出现漏检的情况,首先模型在YOLOv5的原有的目标检测头基础上新增一个P2检测头,能够在四尺度上进行目标检测。然后将CA注意力机制嵌入到骨干网络的最后一层,使模型对关键特征进行关注,忽视不重要特征的干扰。最后本章将PANet网络替换为加权双向特征金字塔网络(Bi FPN),利用其双向融合的方法,把浅层的语义信息和深层的细节信息融合在一起,最终搭建出G-YOLOv5模型。经实验验证,该模型提升了道路目标的检测性能,使相机能够在不同场景下对远距离小目标进行识别。 (2)激光雷达点云道路目标检测算法研究。本章首先对采集的点云划分感兴趣区域,使用体素滤波对点云中的噪声点进行剔除,采用patchwork++算法,把地面和非地面进行分割,剔除地面点云数据。然后基于神经网络对点云进行目标检测,引入CBAM注意力机制到Pointpillars的Backbone网络中,将更多的注意力集中到重要的特征上,减少对无关信息的干扰。最后构建出CBAM-Pointpillars算法模型。经实验验证,CBAM-Pointpillars算法模型对目标检测精度比原始模型有所提高。 (3)决策级目标检测算法设计。使用G-YOLOv5算法和CBAM-Pointpillars算法检测出来的目标,将目标框的交并比和空间距离信息作为融合评判的差异度。首先本章利用KM算法将图像识别到的目标和点云识别到的目标进行最优匹配、然后调节目标融合后在不同环境下不同传感器识别所占的权重,来对目标置信度进行修正更新。最后,实验表明本文算法对道路目标的检测有良好的准确性和可靠性。