咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于融合多尺度标记信息的深度交互式图像分割 收藏

基于融合多尺度标记信息的深度交互式图像分割

Deep Interactive Image Segmentation Based on Fusion Multi-Scale Annotation Information

作     者:丁宗元 孙权森 王涛 王洪元 Ding Zongyuan;Sun Quansen;Wang Tao;Wang Hongyuan

作者机构:南京理工大学计算机科学与技术学院南京210094 常州大学计算机与人工智能学院江苏常州213164 

出 版 物:《计算机研究与发展》 (Journal of Computer Research and Development)

年 卷 期:2021年第58卷第8期

页      面:1705-1717页

核心收录:

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金项目(61802188,61673220,61976028) 江苏省自然科学基金项目(BK20180458) 中国博士后科学基金项目(2020M681530) 

主  题:交互式图像分割 深度学习 多尺度标记 高斯映射 概率单击损失 

摘      要:现有深度交互式图像分割算法通过对单击点计算距离映射或者高斯映射,然后将其与图像进行拼接作为网络的输入.每个单击点的影响范围是相同的,而每个交互的目的并不相同,早期交互的主要目的为选择,后期则更侧重微调.基于此,提出了融合多尺度标记信息的深度交互图像分割算法.首先,通过设置不同高斯半径,对每个单击点计算2组不同尺度的高斯映射.然后,融合小尺度高斯映射,并移除基础分割网络中的部分下采样模块,使网络提取更丰富的细节特征.同时,为了保持目标分割结果的完整性,提出了非局部特征注意力模块,该模块融合了大尺度高斯映射.最后,根据高斯映射提供的概率信息,提出了概率单击损失,提升目标在单击附近的分割表现.实验结果表明:提出的算法既能保持分割的完整性,又能得到目标细节的分割结果,大大降低了用户的交互负担.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分