Paper | Dynamic Residual Dense Network for Image Denoising

目录

  • 故事背景
  • DRDN
  • 训练

发表于2019 Sensors。

摘要

Deep convolutional neural networks have achieved great performance on various image restoration tasks. Specifically, the residual dense network (RDN) has achieved great results on image noise reduction by cascading multiple residual dense blocks (RDBs) to make full use of the hierarchical feature. However, the RDN only performs well in denoising on a single noise level, and the computational cost of the RDN increases significantly with the increase in the number of RDBs, and this only slightly improves the effect of denoising. To overcome this, we propose the dynamic residual dense network (DRDN), a dynamic network that can selectively skip some RDBs based on the noise amount of the input image. Moreover, the DRDN allows modifying the denoising strength to manually get the best outputs, which can make the network more effective for real-world denoising. Our proposed DRDN can perform better than the RDN and reduces the computational cost by 40?50%. Furthermore, we surpass the state-of-the-art CBDNet by 1.34 dB on the real-world noise benchmark.

结论

In this paper, we propose a DRDN model for noise reduction of real-world images. Our proposed DRDN makes full use of the properties of residual connection and deep supervision. We present a method to denoise images with different noise amounts and simultaneously reduce the average computational cost. The core idea of our method is to dynamically change the number of blocks involved in denoising to change the denoising strength via sequential decision. Moreover, our method can manually adjust the denoising strength of the model without fine-tuning the parameters.

要点

  1. RDN有两个局限:第一,无法做到盲去噪;第二,随着RDB数量增加,计算量大增,而性能增益很小。
  2. 本文提出了动态RDN(DRDN),可以基于噪声程度,选择性地跳过一些RDB。DRDN甚至还允许手动更改去噪强度。
  3. DRDN不仅性能比RDN更好,而且计算负荷下降40-50%。

故事背景

我们先回顾RDN和RDB。RDN中有大量以RDB为单位的短连接。RDN作者对此的解释是:让前后的RDB具有连续的记忆。但回顾黄高老师的学术报告,我们知道,这种局部短连接设计可以让级联模型更健壮,并且本质上是增加了网络的冗余,提高泛化能力。

因此,作者认为,RDN中的有一些RDB可能对某个任务贡献不大,是可以选择性跳过的。

最可贵的一点是,作者通过对RDN的可视化,发现:相邻RDB的输出很形似。如图:

其中,每一层的可视化结果,是当前层所有通道的均值。

这说明:我们可以用恒等变换(短连接)跳过一些RDB,在达到近似性能的同时,减小计算量。

作者还提到了UNet++。该网络对UNet进行了剪裁:基于在测试集上的恶化程度。但本文更希望DRDN能够根据任务难度,自主地进行RDB选择。

DRDN

  • 如图,DRDN的结构和RDN是一样的,但内部的RDB换成了DRDB。
  • 在DRDN内部,作者通过一个LSTM,来预测下一个RDB的重要性。如果重要性低于设定阈值,那么下一个RDB就会被短连接代替。这被作者称为门模块(gate module)。
  • 注意,LSTM是建立在连续的DRDB上的。
  • 实战中,作者使用了20个DRDB,每个DRDB内部有6层卷积。其余参数见第四章。

训练

  • 在训练时,如果LSTM阈值未达到,那么该RDB梯度为0。
  • 训练分为3个阶段:首先,我们令所有门输出为1,即使得DRDN收敛;其次,我们让门恢复正常,使得门收敛;最后,我们加上对通过率的惩罚,迫使一些DRDB不工作。整体损失函数如下:

    其中,\(S\)是sigmoid函数,\(v_d\)是第\(d\)个DRDB输出的向量(FC层输出)。

实验略。

原文地址:https://www.cnblogs.com/RyanXing/p/11617463.html

时间: 2024-11-09 05:52:30

Paper | Dynamic Residual Dense Network for Image Denoising的相关文章

Paper | Residual Dense Network for Image Super-Resolution

目录 Residual dense block & network 和DenseNet的不同 摘要和结论 发表在2018年CVPR. 摘要和结论都在强调方法的优势.我们还是先从RDN的结构看起,再理解它的背景和思想. Residual dense block & network 乍一看,这种block结构就是在内部采用了稠密连接,在外部采用残差学习.并且,RDN在全局上也是类似的设计:内部稠密,整体残差.无论是RDB还是RDN,内部都同时采用了\(3 \times 3\)和\(1 \tim

Paper | Residual Attention Network for Image Classification

目录 1. 相关工作 2. Residual Attention Network 2.1 Attention残差学习 2.2 自上而下和自下而上 2.3 正则化Attention 最近看了些关于attention的文章.Attention是比较好理解的人类视觉机制,但怎么用在计算机问题上并不简单. 实际上15年之前就已经有人将attention用于视觉任务,但为什么17年最简单的SENet取得了空前的成功?其中一个原因是,前人的工作大多考虑空间上的(spatial)注意力,而SENet另辟蹊径,

Paper | Deep Residual Learning for Image Recognition

目录 1. 故事 2. 残差学习网络 2.1 残差块 2.2 ResNet 2.3 细节 3. 实验 3.1 短连接网络与plain网络 3.2 Projection解决短连接维度不匹配问题 3.3 更深的bottleneck结构 ResNet的意义已经不需要我在这里赘述.该文发表在2016 CVPR,至今(2019.10)已有3万+引用.由于ResNet已经成为大多数论文的baseline,因此我们着重看其训练细节.测试细节以及bottleneck等思想. 核心: We explicitly

读paper:Deep Convolutional Neural Network using Triplets of Faces, Deep Ensemble, andScore-level Fusion for Face Recognition

今天给大家带来一篇来自CVPR 2017关于人脸识别的文章. 文章题目:Deep Convolutional Neural Network using Triplets of Faces, Deep Ensemble, and 摘要: 文章动机:人脸识别在一个没有约束的环境下,在计算机视觉中是一个非常有挑战性的问题.同一个身份的人脸当呈现不同的装饰,不同的姿势和不同的表情都可以使人脸看起来完全不同.这种相同身份的变化可以压倒不同身份的变化,这样给人脸识别带来更大的挑战,特别是在没有约束的环境下.

Review of Image Super-resolution Reconstruction Based on Deep Learning

Abstract With the deep learning method being applied to image super-resolution (SR), SR methods based on deep learning have achieved better reconstruction results than traditional SR methods. This paper briefly summarizes SR methods based on deep lea

图像超分辨率项目帮你「拍」出高清照片

相机不够算法凑,拥有超级拍照能力的手机也离不开算法的加持.本文介绍的图像超分辨率项目可以帮你补齐相机镜头的短板. 华为 P30 发布会上展示的埃菲尔铁塔高清远距离照片 今天,一位 Reddit 网友贴出了自己基于 Keras 的图像超分辨率项目,可以让照片放大后依然清晰.先来看一下效果. 放大数倍后,照片中的蝴蝶(蛾子?)依然没有失真,背上的绒毛清晰可见 作者表示,该项目旨在改善低分辨率图像的质量,使其焕然一新.使用该工具可以对图像进行超级放缩,还能很容易地在 RDN 和 GAN上进行实验. 该

CVPR 2017 Paper list

CVPR2017 paper list Machine Learning 1 Spotlight 1-1A Exclusivity-Consistency Regularized Multi-View Subspace Clustering Xiaojie Guo, Xiaobo Wang, Zhen Lei, Changqing Zhang, Stan Z. Li Borrowing Treasures From the Wealthy: Deep Transfer Learning Thro

paper 15 :整理的CV代码合集

这篇blog,原来是西弗吉利亚大学的Li xin整理的,CV代码相当的全,不知道要经过多长时间的积累才会有这么丰富的资源,在此谢谢LI Xin .我现在分享给大家,希望可以共同进步!还有,我需要说一下,不管你的理论有多么漂亮,不管你有多聪明,如果没有实验来证明,那么都是错误的.  OK~本博文未经允许,禁止转载哦!  By  wei shen Reproducible Research in Computational Science “It doesn't matter how beautif

(转)The Neural Network Zoo

转自:http://www.asimovinstitute.org/neural-network-zoo/ THE NEURAL NETWORK ZOO POSTED ON SEPTEMBER 14, 2016 BY FJODOR VAN VEEN With new neural network architectures popping up every now and then, it's hard to keep track of them all. Knowing all the abb