咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >融合上下文感知注意力的低光图像去雾网络 收藏

融合上下文感知注意力的低光图像去雾网络

Low-light image dehazing network with aggregated context-aware attention

作     者:王柯俨 成吉聪 黄诗芮 蔡坤伦 王威然 李云松 WANG Keyan;CHENG Jicong;HUANG Shirui;CAI Kunlun;WANG Weiran;LI Yunsong

作者机构:西安电子科技大学综合业务网理论及关键技术国家重点实验室陕西西安710071 

出 版 物:《西安电子科技大学学报》 (Journal of Xidian University)

年 卷 期:2023年第50卷第2期

页      面:23-32页

核心收录:

学科分类:0710[理学-生物学] 08[工学] 081104[工学-模式识别与智能系统] 080203[工学-机械设计及理论] 0802[工学-机械工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:陕西省自然科学基金面上项目(2021JM-125)。 

主  题:低光图像去雾 注意力机制 特征融合 色偏损失 深度学习 

摘      要:现有的低光去雾算法因受图像光照强度低、光照不均匀等影响,其去雾后的图像存在细节丢失、色彩失真等现象。针对上述问题,提出一种融合上下文感知注意力的低光图像去雾网络(ACANet)。首先,在基准网络中引入层内上下文感知注意力模块,分别从通道维度和空间维度结合全局视角辨识和加权同一尺度下的重要特征,使网络突破局部视野的约束,更加高效地提取图像纹理信息;其次,引入层间上下文感知注意力模块,通过投影操作将高级特征映射到信号子空间,以实现不同层之间多尺度特征信息的高效融合,进一步提升对图像细节的重建;最后,引入CIEDE2000色偏损失函数,通过CIELAB色彩空间对图像色调进行约束,并与L2损失一起联合优化网络,使网络准确地学习图像色彩,以解决图像的严重色偏问题。实验结果表明,所提算法在多个数据集上的客观指标均优于现有去雾算法,其峰值信噪比指标较基准网络提高了8.8%,且主观去雾效果更彻底,恢复图像细节更丰富,色彩还原度更好,更接近于真实图像。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分