基于点线特征融合的视觉惯性SLAM系统的设计与实现
作者单位:黑龙江大学
学位级别:硕士
导师姓名:冉陈键;朱明清
授予年度:2024年
学科分类:080202[工学-机械电子工程] 08[工学] 080203[工学-机械设计及理论] 0804[工学-仪器科学与技术] 0802[工学-机械工程]
主 题:信息熵 点线融合 位姿估计 APL-SLAM 视觉惯性
摘 要:随着计算机视觉技术的快速发展,同步定位与建图技术(Simultaneous Localization and Mapping,SLAM)被广泛应用于移动机器人、自动驾驶和无人机等领域。同时相机凭借其成本低、体积小、获取场景信息丰富等优点,使得视觉SLAM开始成为研究的热点。目前,视觉SLAM主要面临两个挑战:一是对环境纹理信息依赖性较强;二是应对快速运动或旋转场景时,适应性较差。针对上述问题,本文从提升系统在复杂环境下的定位精度和鲁棒性的角度出发,提出了基于点线特征融合的视觉惯性SLAM系统。本文的主要研究内容如下: (1)对于空旷房间、长楼道等弱纹理场景,仅依赖于传统视觉点特征方案无法提取到足够的视觉特征,造成系统定位精度下降甚至运行失败。而在稠密场景下,传统点线特征融合算法缺乏对场景纹理信息的区分能力,导致系统的实时性较差。为解决上述问题,本文提出了基于点线特征融合的改进前端视觉里程计方法。该方法首先通过计算视觉点特征的信息熵来评估场景纹理信息的稠密程度。在弱纹理场景下,系统根据信息熵阈值自适应加入线特征并采用点线特征融合的方法来进行位姿估计,而在稠密场景下,系统直接采用视觉点特征进行位姿估计。这种改进视觉特征匹配进行位姿估计的方法,避免了视觉特征计算冗余,有效提升了系统的实时性和在弱纹理场景下的定位精度。 (2)针对移动机器人在快速运动或旋转过程中,易因视觉特征信息丢失或误匹配而导致系统位姿跟踪失败的问题,本文在改进前端视觉里程计的基础上,提出了视觉特征信息与惯性融合的APL-SLAM(Adaptive PL-SLAM)算法。一方面,通过利用IMU信息对系统的运动状态进行检测,并据此提出基于视觉特征匹配的关键帧筛选方案,以提升系统的鲁棒性和定位精度。另一方面,视觉特征信息可以有效减少IMU累积误差和积分漂移。再将视觉特征约束和IMU预积分残差采用局部BA进行迭代优化相机位姿,从而实现一个高鲁棒性和实时性的视觉惯性SLAM系统。 (3)在嵌入式平台NVIDIA Jetson TX2上成功部署并运行APL-SLAM算法,随后在公开数据集和实际场景中测试该算法并与主流SLAM算法进行了对比分析。实验表明,在不同纹理信息场景下,APL-SLAM算法具有场景区分能力,能够自适应调整视觉特征匹配方式,从而实现系统实时性和定位精度之间的平衡。而在快速运动或旋转场景下,APL-SLAM算法将视觉特征和IMU信息融合,提出了基于视觉特征匹配的关键帧筛选方案,有效提升了系统鲁棒性和定位精度。