基于自适应阈值和速度优化的轻量化语义VSLAM方法
作者机构:海南大学信息与通信工程学院 海南大学网络空间安全学院
出 版 物:《北京航空航天大学学报》 (Journal of Beijing University of Aeronautics and Astronautics)
年 卷 期:2024年
核心收录:
学科分类:08[工学] 080203[工学-机械设计及理论] 0802[工学-机械工程]
基 金:国家重点研发项目(2022YFD2400504) 国家自然科学基金(62161010) 海南省重点研发计划项目(ZDYF2022SHFZ039)
主 题:VSLAM 动态场景 YOLOv7-tiny 自适应阈值
摘 要:视觉同步定位与地图构建(Visual Simultaneous Localization and Mapping,VSLAM)是一种利用视觉等传感器来获取未知环境信息的技术,广泛应用于无人驾驶、机器人、增强现实等领域。然而,室内场景下的VSLAM对动态对象进行像素级的语义分割存在较高的计算开销,并且光照变化使得动态物体的外观也发生变化,导致它们与静态环境产生遮挡或混淆。针对以上问题,提出了一种基于自适应阈值和速度优化的轻量化语义VSLAM模型。首先,采用了轻量化的一阶段目标检测网络YOLOv7-tiny,并结合光流算法,有效地检测了图像的动态区域,并对不稳定特征点进行了剔除。同时,特征点提取算法基于输入图像的对比度信息,自适应地调整阈值。然后,结合二进制词袋与局部建图线程精简的优化方法,加快了加载和匹配速度,提高了系统在室内动态场景下的运行速度。实验结果表明,本文算法在室内高动态场景下能够有效地剔除动态特征点,提高了相机的定位精度。在运行速率方面平均处理速度达到了19.8FPS,在实际场景下可以满足实时性的需求。