咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >面向抓取检测的位姿估计数据集自动采集标注系统 收藏

面向抓取检测的位姿估计数据集自动采集标注系统

Automatic data collection and annotation system for a pose estimation dataset designed for grasping detection

作     者:陈鹏 白勇 孙翰翔 CHEN Peng;BAI Yong;SUN Hanxiang

作者机构:河北工业大学人工智能与数据科学学院天津300401 

出 版 物:《工程科学学报》 (Chinese Journal of Engineering)

年 卷 期:2024年第46卷第8期

页      面:1458-1468页

核心收录:

学科分类:08[工学] 0804[工学-仪器科学与技术] 

基  金:国家自然科学基金资助项目(U20A20201) 河北省高等学校科学技术研究项目(QN2022048)。 

主  题:抓取检测 自动标注 三维重建 位姿估计 分割掩码 

摘      要:机器人抓取在物流分拣、自动装配和医疗手术等领域中具有广泛的应用.抓取检测是机器人抓取中的重要步骤之一,随着三维传感器的成本逐渐降低,抓取检测任务中越来越多地使用深度相机采集彩色图像和深度图像对(RGB-D),并采用基于位姿估计的方法实现机器人抓取.然而,目前已经公开的基于RGB-D图像的位姿估计数据集,大多需要借助价格昂贵的三维激光扫描仪获得目标物体的三维模型,而且标注过程依赖人工操作,费时费力,不利于大规模数据集的制作.为此,本文设计并实现了一个面向位姿估计的数据集自动采集标注系统.该系统无需使用三维激光扫描仪,只通过采集、分析由深度相机获得的RGB-D图像序列即可重建出目标物体的三维模型,并自动标注目标物体的位姿信息,生成二维图像中的分割掩码.实验中,使用该系统制作了包含84个物体、8400张RGB-D图像的位姿估计数据集,并将自动标注数据与手动标注数据进行了对比,发现两者分割掩码重合率可以达到98%,并且自动标注的位姿信息能够使模型点云与场景点云的对齐率达到100%,充分说明了所提系统自动标注结果的准确性与可靠性.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分