Recently, convolutional neural network (CNN)-based methods are proposed for hyperspectral images (HSIs) denoising. Among them, unsupervised methods such as the deep image prior (DIP) have received much attention because these methods do not require any training data. However, DIP suffers from the semi-convergence behavior, i.e., the iteration of DIP needs to terminate by referring to the ground-truth image at the optimal iteration point. In this paper, we propose the spatial-spectral constrained deep image prior (S2DIP) for HSI mixed noise removal. Specifically, we incorporate DIP with a spatial-spectral total variation (SSTV) term to fully preserve the spatial-spectral local smoothness of the HSI and an $\ell_1$-norm term to capture the complex sparse noise. The proposed S2DIP jointly leverages the expressive power brought from the deep CNN without any training data and exploits the HSI and noise structures via hand-crafted priors. Thus, our method avoids the semi-convergence behavior, showing higher stabilities than DIP. Meanwhile, our method largely enhances the HSI denoising ability of DIP. To tackle the proposed denoising model, we develop an alternating direction multiplier method algorithm. Extensive experiments demonstrate that the proposed S2DIP outperforms optimization-based and supervised CNN-based state-of-the-art HSI denoising methods.


翻译:最近,为超光谱图像拆卸提议了基于共振神经网络(CNN)的超光谱图像拆卸方法。其中,由于这些方法不需要任何培训数据,未受监督的方法,如远光图像前(DIP)已经受到很大关注。然而,DIP受到半相异行为的影响,即重复DIP需要终止,办法是在最佳迭代点参照地面真实图像。本文建议在HSI混合噪音清除之前(S2DIP)的深光限制图像。具体地说,我们将DIP与空间光谱全变异(SSTV)等不受监督的方法纳入其中,以充分保持HSI的光度和摄取复杂稀散噪音的纯度,即重复DIP。提议的S2DIP联合利用深CNN提供的显像力,而无需任何培训数据,通过手制的状态利用基于HSI和噪音结构。因此,我们的方法避免了半相近光谱的HSI全变异性行为(SSTV),显示高光谱地方平面的SLA方法,比DIP更高级的递化方法。

0
下载
关闭预览

相关内容

专知会员服务
39+阅读 · 2021年4月5日
【CVPR2021】动态度量学习
专知会员服务
39+阅读 · 2021年3月30日
专知会员服务
11+阅读 · 2021年3月25日
专知会员服务
98+阅读 · 2021年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【泡泡一分钟】一种实用且高效的多视图匹配方法
泡泡机器人SLAM
6+阅读 · 2018年11月19日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关VIP内容
专知会员服务
39+阅读 · 2021年4月5日
【CVPR2021】动态度量学习
专知会员服务
39+阅读 · 2021年3月30日
专知会员服务
11+阅读 · 2021年3月25日
专知会员服务
98+阅读 · 2021年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
相关资讯
Top
微信扫码咨询专知VIP会员