基于深度学习的图像修复被动取证研究
作者单位:长沙理工大学
学位级别:硕士
导师姓名:李峰;章登勇;曾彬
授予年度:2022年
学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 08[工学] 080203[工学-机械设计及理论] 0835[工学-软件工程] 0802[工学-机械工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)]
主 题:图像修复 图像修复取证 深度学习 U型网络 注意力机制
摘 要:图像修复是一项利用图像已知区域的信息来修复图像中缺失或损坏区域的技术。随着这项技术的成熟,以此为基础的图像编辑软件在生活中越来越常见,它们功能强大,操作简单,使用这些软件人们可以轻松地编辑图像。一旦图像修复技术被用于恶意移除图像的内容,将会给真实的图像带来信任危机。因此,验证图像是否真实完整的图像修复取证技术成为安全领域的研究热点,也具有重要的现实意义。目前图像修复取证的研究只能检测某一种类型的图像修复。虽然它们能在一定程度上检测出修复区域,但是检测效果不太理想,且无法同时检测仿佛真实图像的基于样本块技术和基于深度学习技术的图像修复区域。针对这一问题,本文基于深度学习对图像修复被动取证进行了深入研究。主要工作如下:本文首先使用当下修复效果优秀的两种算法创建了相应的数据集。在对传统修复取证进行深入了解后,提出了基于双分支网络的图像修复被动取证方法。双分支网络中的高通滤波卷积网络(High-Pass filtered Convolutional Network,HPCN)首先使用一组高通滤波器来削弱图像中的低频分量,然后使用四个残差块来提取特征,捕获图像修复区域和原始区域之间的高频分量差异。双分支中的双注意力特征融合(Dual-Attention Feature Fusion,DAFF)分支首先使用预处理模块为图像增添局部二值模式特征图,然后使用双注意力卷积块自适应地集成局部特征和全局依赖,捕获图像修复区域和原始区域在内容及纹理上的差异。融合模块将两个分支的输出进行多尺度融合,获得准确的检测结果。通过广泛的实验表明了该方法不仅优于现有的图像取证算法,还可以同时检测样本块图像修复和深度学习图像修复。除此之外,在定位图像移除对象的边界上能获得更清晰准确的边缘,且能抵抗图像的后处理操作。接着,为了进一步提高图像修复被动取证的效率和准确率。提出了基于双流改进U型网络的被动取证方法。基于RGB流的编码器结构直接对图像特征进行提取,通过训练自动学习RGB图像中修复区域与原始区域的不一致性特征。基于噪声流的编码器结构对图像局部噪声残差图进行特征提取,学习噪声残差图中修复区域与原始区域的不一致性特征。两者相互补充传递给多特征图解码器进行解码,改进的U型网络通过环形残差不断加强巩固学习,U型结构将编码器不同层的特征图跳跃传递给解码器结构,提升解码器定位修复区域的精度。经过实验,发现该方法能够有效地提升图像修复被动取证的准确率,在推进图像修复取证走向实际应用起了积极作用。