基于点线特征的视觉激光融合无人车定位算法
作者单位:哈尔滨工业大学
学位级别:硕士
导师姓名:高会军
授予年度:2021年
学科分类:080901[工学-物理电子学] 0809[工学-电子科学与技术(可授工学、理学学位)] 082304[工学-载运工具运用工程] 08[工学] 080203[工学-机械设计及理论] 080401[工学-精密仪器及机械] 080204[工学-车辆工程] 0804[工学-仪器科学与技术] 0802[工学-机械工程] 0803[工学-光学工程] 0823[工学-交通运输工程]
摘 要:随着近年来科学技术的不断进步,无人驾驶技术得到业界的广泛关注,而无人车的定位是其中极其重要的一环,然而基于特征点的视觉SLAM算法在低纹理场景下缺少足够的特征点而易失效,同时视觉特征具有丰富的图像纹理信息与具有高精度环境几何结构信息的激光特征具有天然的互补性。基于此本文提出一种基于点、线特征的视觉激光融合的无人车定位算法,通过加入线特征的约束来增强系统鲁棒性和精度,实现无人车的运动位姿估计以及构建周边环境的点云地图。本文主要研究工作如下:(1)构建视觉与激光数据预处理模块。针对视觉特征点采用Shi-Tomasi角点提取算法,基于实时性的考虑采用Lucas-Kanade光流算法来跟踪帧间特征点。针对视觉线特征采取LSD特征提取算法,并且改进算法将距离较近且表达相似的线特征拼接。为避免特征分布过于集中,通过设定特征最小间隔阈值以确保其均匀分布。针对激光点云首先基于匀速运动假设,采用线性插值的方法去除点云运动畸变,接着划分子区域并根据点云局部曲率大小判断是否为边缘、平面特征点。最后剔除遮挡、与物体平面近乎平行等无效特征点来增强系统的有效性。(2)视觉特征深度恢复模块。通过传感器外参标定以及对齐数据时间戳来实现数据关联。接下来选取激光邻域来拟合平面,利用相机光心与视觉特征点形成的射线与所拟合平面的交点的深度值来恢复该视觉特征点的深度。(3)视觉激光紧耦合里程计模块。首先针对视觉特征以及点云特征进行帧间匹配,并利用视觉特征的匹配构建对极约束求解帧间位姿初始估计值。接下来通过将视觉特征的损失函数以及激光特征的损失函数放在同一个优化框架下进行LM非线性优化以求解运动位姿估计,最后通过激光建图构建点云环境地图。(4)基于KITTI数据集和校园实地实验。最后本文进行视觉激光融合无人车定位算法的实验,基于开源的KITTI数据集与LOAM算法对比,结果表明本文提出的里程计模块输出的精度较高;最后基通过采集的哈尔滨工业大学校园数据集来测试算法的有效性,最终算法运行成功。