咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于多任务联合学习的跨视角地理定位方法 收藏

基于多任务联合学习的跨视角地理定位方法

Cross-view geo-localization method based on multi-task joint learning

作     者:王先兰 周金坤 穆楠 王晨 WANG Xianlan;ZHOU Jinkun;MU Nan;WANG Chen

作者机构:武汉邮电科学研究院武汉430074 四川师范大学计算机科学学院成都610101 南京烽火天地通信科技有限公司南京210019 

出 版 物:《计算机应用》 (journal of Computer Applications)

年 卷 期:2023年第43卷第5期

页      面:1625-1635页

学科分类:08[工学] 0804[工学-仪器科学与技术] 

基  金:国家自然科学基金资助项目(62006165)。 

主  题:跨视角地理定位 无人机图像定位 视角转换 特征提取 深度学习 

摘      要:针对现有跨视角地理定位方法中视点不变特征与视角转换方法割裂导致的性能提升瓶颈问题,提出多任务联合学习模型(MJLM)。MJLM由前置图像生成模型和后置图像检索模型组成。前置生成模型首先使用逆透视映射(IPM)进行坐标变换,显式地弥合空间域差,使投影图像与真实卫星图的空间几何特征大致相同;然后通过提出的跨视角生成对抗网络(CVGAN)隐式地对图像内容及纹理进行细粒度的匹配和修复,并合成出更平滑且真实的卫星图像。后置检索模型由多视角多监督网络(MMNet)构成,能够兼顾多尺度特征和多监督学习的图像检索任务。在University-1652(无人机定位数据集)上进行实验,结果显示MJLM对无人机(UAV)定位任务的平均精确率(AP)及召回率(R@1)分别达到89.22%和87.54%,与LPN(Local Pattern Network)和MSBA(MultiScale Block Attention)相比,MJLM在R@1上分别提升了15.29%和1.07%。可见,MJLM能在一个聚合框架体系内联合处理跨视角图像生成任务及检索任务,实现基于视角转换与视点不变特征方法的融合,有效提升跨视角地理定位的精度和鲁棒性,验证UAV定位的可行性。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分