咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >一种多层多模态融合3D目标检测方法 收藏

一种多层多模态融合3D目标检测方法

3D Object Detection Based on Multilayer Multimodal Fusion

作     者:周治国 马文浩 ZHOU Zhi-guo;MA Wen-hao

作者机构:北京理工大学集成电路与电子学院北京100081 

出 版 物:《电子学报》 (Acta Electronica Sinica)

年 卷 期:2024年第52卷第3期

页      面:696-708页

核心收录:

学科分类:1305[艺术学-设计学(可授艺术学、工学学位)] 13[艺术学] 081104[工学-模式识别与智能系统] 08[工学] 0804[工学-仪器科学与技术] 081101[工学-控制理论与控制工程] 0811[工学-控制科学与工程] 

基  金:装备预研领域基金(No.61403120109) 

主  题:自动驾驶 多传感器融合 3D目标检测 点云编码 自注意力机制 

摘      要:在自动驾驶感知系统中视觉传感器与激光雷达是关键的信息来源,但在目前的3D目标检测任务中大部分纯点云的网络检测能力都优于图像和激光点云融合的网络,现有的研究将其原因总结为图像与雷达信息的视角错位以及异构特征难以匹配,单阶段融合算法难以充分融合二者的特征.为此,本文提出一种新的多层多模态融合的3D目标检测方法:首先,前融合阶段通过在2D检测框形成的锥视区内对点云进行局部顺序的色彩信息(Red Green Blue,RGB)涂抹编码;然后将编码后点云输入融合了自注意力机制上下文感知的通道扩充PointPillars检测网络;后融合阶段将2D候选框与3D候选框在非极大抑制之前编码为两组稀疏张量,利用相机激光雷达对象候选融合网络得出最终的3D目标检测结果.在KITTI数据集上进行的实验表明,本融合检测方法相较于纯点云网络的基线上有了显著的性能提升,平均mAP提高了6.24%.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分