咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于局部对齐单目视频深度的三维场景重建 收藏

基于局部对齐单目视频深度的三维场景重建

Toward 3D scene reconstruction from locally scale-aligned monocular video depth

作     者:徐光锴 赵峰 Guangkai Xu;Feng Zhao

作者机构:中国科学技术大学信息科学技术学院类脑智能技术及应用国家工程实验室安徽合肥230027 

出 版 物:《中国科学技术大学学报》 (JUSTC)

年 卷 期:2024年第54卷第4期

页      面:13-22,12,66页

学科分类:1305[艺术学-设计学(可授艺术学、工学学位)] 13[艺术学] 08[工学] 081104[工学-模式识别与智能系统] 0804[工学-仪器科学与技术] 081101[工学-控制理论与控制工程] 0811[工学-控制科学与工程] 

基  金:supported by the Anhui Provincial Natural Science Foundation (2108085UD12) 

主  题:三维场景重建 单目深度估计 局部加权线性回归 

摘      要:单目深度估计方法在各种场景下已经取得了较强的鲁棒性,该类方法通常预测尺度偏移量未知的不变仿射深度而非度量深度,因为收集大规模的不变仿射深度训练数据比收集度量深度训练数据容易得多。然而,在某些基于视频的应用场景中,例如视频深度估计和三维场景重建,每帧预测的深度中存在的未知比例和偏移量值可能会导致预测的深度不一致。为了解决该问题,我们提出了一种基于局部加权线性回归的方法,通过利用稀疏锚点恢复深度的尺度图和偏移量图,以保证连续帧之间的一致性。大量的实验表明,我们的方法可以在几个零样本基准上显著降低现有技术方法的Rel误差(相对误差)。此外,我们收集了630万张RGBD图像对来训练鲁棒的深度模型。通过局部恢复尺度和偏移量,我们的ResNet50-backbone模型性能甚至超过了最先进的DPT ViT-Large模型。与基于几何的重建方法相结合,我们提出了一种新的稠密三维场景重建流程,既能受益于稀疏点的尺度一致性,又能受益于单目深度估计方法的鲁棒性。通过对视频的每一帧依次预测深度图,我们可以重建出准确的三维场景几何信息。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分