期刊导航
期刊开放获取
cqvip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
面向动态场景去模糊的对偶学习生成对抗网络
1
作者
纪野
戴亚平
+1 位作者
廣田薰
邵帅
《控制与决策》
EI
CSCD
北大核心
2024年第4期1305-1314,共10页
针对动态场景下的图像去模糊问题,提出一种对偶学习生成对抗网络(dual learning generative adversarial network,DLGAN),该网络可以在对偶学习的训练模式下使用非成对的模糊图像和清晰图像进行图像去模糊计算,不再要求训练图像集合必...
针对动态场景下的图像去模糊问题,提出一种对偶学习生成对抗网络(dual learning generative adversarial network,DLGAN),该网络可以在对偶学习的训练模式下使用非成对的模糊图像和清晰图像进行图像去模糊计算,不再要求训练图像集合必须由模糊图像与其对应的清晰图像成对组合而成.DLGAN利用去模糊任务与重模糊任务之间的对偶性建立反馈信号,并使用这个信号约束去模糊任务和重模糊任务从两个不同的方向互相学习和更新,直到收敛.实验结果表明,在结构相似度和可视化评估方面,DLGAN与9种使用成对数据集训练的图像去模糊方法相比具有更好的性能.
展开更多
关键词
动态场景去模糊
对偶学习
生成对抗网络
注意力引导
特征图损耗函数
原文传递
题名
面向动态场景去模糊的对偶学习生成对抗网络
1
作者
纪野
戴亚平
廣田薰
邵帅
机构
北京理工大学自动化学院
北京理工大学复杂系统智能控制与决策国家重点实验室
出处
《控制与决策》
EI
CSCD
北大核心
2024年第4期1305-1314,共10页
基金
国铁集团系统性重大项目(P2021T002)
北京市自然科学基金项目(L191020)。
文摘
针对动态场景下的图像去模糊问题,提出一种对偶学习生成对抗网络(dual learning generative adversarial network,DLGAN),该网络可以在对偶学习的训练模式下使用非成对的模糊图像和清晰图像进行图像去模糊计算,不再要求训练图像集合必须由模糊图像与其对应的清晰图像成对组合而成.DLGAN利用去模糊任务与重模糊任务之间的对偶性建立反馈信号,并使用这个信号约束去模糊任务和重模糊任务从两个不同的方向互相学习和更新,直到收敛.实验结果表明,在结构相似度和可视化评估方面,DLGAN与9种使用成对数据集训练的图像去模糊方法相比具有更好的性能.
关键词
动态场景去模糊
对偶学习
生成对抗网络
注意力引导
特征图损耗函数
Keywords
dynamic scene deblurring
dual learning
generative adversarial network
attention-guided
feature map loss function
分类号
TP391 [自动化与计算机技术—计算机应用技术]
原文传递
题名
作者
出处
发文年
被引量
操作
1
面向动态场景去模糊的对偶学习生成对抗网络
纪野
戴亚平
廣田薰
邵帅
《控制与决策》
EI
CSCD
北大核心
2024
0
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部