红外双目立体视觉广角场景深度感知方法研究
作者单位:天津大学
学位级别:硕士
导师姓名:王向军
授予年度:2020年
学科分类:080901[工学-物理电子学] 0809[工学-电子科学与技术(可授工学、理学学位)] 08[工学] 080203[工学-机械设计及理论] 080401[工学-精密仪器及机械] 0804[工学-仪器科学与技术] 0802[工学-机械工程] 0803[工学-光学工程]
摘 要:针对基于可见光相机的环境感知方法易受黑暗、雾霾、强光干扰影响的局限性,本文使用长波红外相机结合双目立体视觉技术供和背景具有明显温度区分的红外目标点云,作为可见光相机环境感知方法的补充。针对红外图像纹理细节少,传统可见光双目图像立体匹配算法难以适用的问题,本文研究了一种长波红外目标取与特征点匹配相结合的红外目标点云估计方法,该方法可以实现对场景中热分布障碍物进行感知。本文主要研究内容如下:1)对比分析了现有的三种主流特征点算法在长波红外图像中的特征点取效果,并选取SURF算法作为本文的特征点取方法。为高特征匹配的鲁棒性,根据本文双目模型特点,对SURF算法进行针对性优化,使正确匹配点数量高了20%以上。2)本文红外目标点云估计方法以行人作为主要研究对象,基于行人在长波红外图像中的亮度边缘特征取行人目标区域,并在该区域检测特征点。针对双目图像特征点匹配过程,本文研究了一种基于欧氏距离、极线约束、最大最小距离聚类的级联匹配点筛选方法,获取精筛后的匹配点三维坐标。最后,基于红外图像行人目标区域和匹配点三维坐标估计行人目标点云。3)构建了具有120°视场角的红外立体视觉环境感知实验系统,该系统对30m范围内的空间点目标平均相对测距误差小于3%,最大相对测距误差低于5%。为验证本文方法的准确性,设计了30m范围内的行人感知实验,该方法对行人感知的最大相对测距误差低于5%,说明点云估计过程没有引入更多测距误差,具有较高准确性。为验证本文方法的鲁棒性,进行了三种不同场景的行人感知实验,该方法均有效估计出了行人点云,说明本文方法具有较高的鲁棒性。