咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于生成对抗网络的图像盲分离研究 收藏
基于生成对抗网络的图像盲分离研究

基于生成对抗网络的图像盲分离研究

作     者:苏亚亚 

作者单位:河北工程大学 

学位级别:硕士

导师姓名:贾东立

授予年度:2023年

学科分类:08[工学] 081104[工学-模式识别与智能系统] 080203[工学-机械设计及理论] 0802[工学-机械工程] 0811[工学-控制科学与工程] 

主      题:图像盲分离 生成对抗网络 通道注意力 Transformer结构 

摘      要:作为一种图像处理技术,图像盲分离(Bling Image Separation,BIS)旨在从经过线性混合和加噪的观测图像中恢复原始图像。传统的独立成分分析、奇异值分解等通过假设源图像之间的相互独立实现盲分离。但在实际中,源图像之间可能存在的相关性使得传统方法面临困难。生成对抗网络(Generative Adversarial Networks,GAN)是一种新型的深度学习网络,其自主地学习不同领域间的相互映射的特征,适合用来解决源图像相关性的问题,从而实现更准确地源图像估计。本文对基础生成对抗网络进行了改进,分别提出了基于通道注意力引导的一对多生成对抗网络,和结合Transformer与UNet的生成对抗网络,在单通道图像盲分离任务中取得了较好的表现,具体创新如下。1.针对源图像与混合图像在结构分布上相近,盲分离过程中易受混合图像中干扰源信息的影响,而产生像素级别的噪点和伪影,提出基于通道注意力的一对多的生成对抗网络模型。使用一个生成器搭配两个判别器的多通道生成对抗结构,分别对应每个领域源图像的生成,并在每个生成通道中加入通道注意力机制,用于引导不同源信息的特征提取。在生成器的损失函数中同时使用对抗损失、源图像L1损失、以及混合图像的重建损失,约束生成器将不同源信息映射到不同源领域。2.针对生成对抗网络在图像盲分离任务中使用反卷积的方式进行图像重建时,存在的分离图像中损失源图像的细节信息和纹理特征的问题,提出结合Transformer与UNet的生成对抗网络结构。首先使用UNet网络进行特征提取和编码解码,在此基础上采用Transformer模块实现对输入特征的位置编码和信息交互,最后通过生成对抗网络对分离后的源信息进行重建。经过对实验结果的定量和定性分析,证明了该方法在保持高分离精度的同时,能够保留更多的细节信息和纹理特征。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分