咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >面向动态场景去模糊的对偶学习生成对抗网络 收藏

面向动态场景去模糊的对偶学习生成对抗网络

Dual learning generative adversarial network for dynamic scene deblurring

作     者:纪野 戴亚平 廣田薰 邵帅 JI Ye;DAI Ya-ping;Kaoru HIROTA;SHAO Shuai

作者机构:北京理工大学自动化学院北京100081 北京理工大学复杂系统智能控制与决策国家重点实验室北京100081 

出 版 物:《控制与决策》 (Control and Decision)

年 卷 期:2024年第39卷第4期

页      面:1305-1314页

核心收录:

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国铁集团系统性重大项目(P2021T002) 北京市自然科学基金项目(L191020) 

主  题:动态场景去模糊 对偶学习 生成对抗网络 注意力引导 特征图损耗函数 

摘      要:针对动态场景下的图像去模糊问题,提出一种对偶学习生成对抗网络(dual learning generative adversarial network,DLGAN),该网络可以在对偶学习的训练模式下使用非成对的模糊图像和清晰图像进行图像去模糊计算,不再要求训练图像集合必须由模糊图像与其对应的清晰图像成对组合而成.DLGAN利用去模糊任务与重模糊任务之间的对偶性建立反馈信号,并使用这个信号约束去模糊任务和重模糊任务从两个不同的方向互相学习和更新,直到收敛.实验结果表明,在结构相似度和可视化评估方面,DLGAN与9种使用成对数据集训练的图像去模糊方法相比具有更好的性能.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分