咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >动态场景下融合YOLOv5s的视觉SLAM算法研究 收藏

动态场景下融合YOLOv5s的视觉SLAM算法研究

作     者:赵燕成 魏天旭 仝棣 赵景波 

作者机构:青岛理工大学信息与控制工程学院 

出 版 物:《无线电工程》 (Radio Engineering)

年 卷 期:2023年

学科分类:08[工学] 080202[工学-机械电子工程] 080203[工学-机械设计及理论] 0802[工学-机械工程] 

基  金:国家自然科学基金(51475251) 青岛市民生计划(22-3-7-xdny-18-nsh) 

主  题:视觉SLAM 动态场景 轻量级网络 目标检测 LK光流法 

摘      要:为了解决视觉SLAM系统在动态场景下容易受到动态物体干扰,导致算法定位精度和鲁棒性下降的问题,提出了一种融合YOLOv5s轻量级目标检测网络的视觉SLAM算法。该算法在ORB-SLAM2的跟踪线程中添加了目标检测和剔除动态特征点模块,通过剔除图像中的动态特征点,提高SLAM系统的定位精度和鲁棒性。首先,改进了YOLOv5s的轻量化目标检测算法,来提高了网络在移动设备中的推理速度和检测精度。其次,将轻量化目标检测算法与ORB特征点算法结合,以提取图像中的语义信息并剔除先验的动态特征。最后,结合LK光流法和对极几何约束来剔除动态特征点,并利用剩余的特征点进行位姿匹配。在TUM数据集上的验证表明,提出的算法与原ORB-SLAM2相比,在高动态序列下的ATE和RPE均提高了95%以上,有效提升了系统的定位精度和鲁棒性。相对当前一些优秀的SLAM算法,在精度上也有明显的提升,并且具有更高的实时性,使其在移动设备中拥有更好的应用价值。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分