咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >改进的空间体素融合方法及其在线重建 收藏

改进的空间体素融合方法及其在线重建

Improved Spatial Voxel Fusion Method and Its Online Reconstruction

作     者:王剑飞 林金花 王璐 WANG Jianfei;LIN Jinhua;WANG Lu

作者机构:长春工业大学应用技术学院吉林长春130012 中国科学院长春光学精密机械与物理研究所吉林长春130033 中国科学院大学机械电子工程系吉林长春130033 

出 版 物:《湖南大学学报(自然科学版)》 (Journal of Hunan University:Natural Sciences)

年 卷 期:2018年第45卷第2期

页      面:141-151页

核心收录:

学科分类:08[工学] 080203[工学-机械设计及理论] 0802[工学-机械工程] 

基  金:国家高技术研究发展计划(863)资助项目(2014AA7031010B) 吉林省"十三五"科学技术研究资助项目(2016345) 

主  题:在线 空间索引 数据结构 GPU 实时重建 

摘      要:目前,随着深度传感器的更新发展,使得三维重建的在线方法得以实现.在线重建的难点在于如何能够在保证较好的重建效果和重建规模的前提下,实时地将多个动态重叠深度图转化成一个三维模型.针对这一问题,本文算法基于空间索引策略构建了一种存取高效的空间体素数据结构,改进了传统体积融合方法中的规则分层网格数据结构,对隐含表面数据进行实时存取与更新的同时,实现大尺度的在线三维重建.这些表面数据仅在观测时存储,并且高效地流入和流出索引表,实现了传感器运动过程中的在线场景重建.算法通过在GPU(Graphics Processing Pipeline)上完成深度图预处理,摄像姿态估计,深度图融合和表面绘制几个核心阶段,实现对细粒度的细节和大尺度的环境进行交互式实时重建.通过实验表明,改进后的重建系统能够在保证重建质量与重建性能的同时,平均重建时间为21.6ms,ICP姿态估计15次,用时8.0ms,平均帧绘制速率提高13.3%,实现了对大尺度场景的实时三维重建.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分