DRN:Dilated Residual Networks(论文解读十四)

article/2025/9/24 4:20:19

Title:Dilated Residual Networks

From:CVPR2017

Note data:2019/06/12
Abstract:提出一种有利于分类任务的扩张残差网络DRN。
Code :pytorch


目录

DRN论文解读

1 Abstra

2 Introduction

3 Method

Degridding

添加图层

移除残差连接

5 Experiment

6 Conclusion


DRN论文解读

1 Abstra

论文提出一种新的网络模型:DRN

网络结构:在残差网络的基础上通过替换内部下采样层的子集来增加网络输出的分辨率。

创新:解决了由卷积,池化操作导致的图像分辨率下降的问题

动机:解决卷积神经网络在卷积,池化过程中不断减小的分辨率

论文提出扩张卷积可以增加感受野,用于替换卷积网络中的下采样层,维持图像原有的空间分辨率的同时,保持后续神经元的感受野的分辨率,并使得模型转移到需要详细场景理解的下游应用程序。扩展卷积不仅扩大输出特征图的分辨率还不会减少单个神经元的感受野。证明DRN在图像分类任务中由于未使用扩张的模型,且不增加模型的深度与复杂性!在ImageNet中表现优于其他的分类模型!


2 Introduction

卷积神经网络使用池化和下采样获取更抽象的特征,但这伴随着是feature map空间分辨率的下降,这会丢失很多敏感细节,不利于涉及密集预测的图像场景解析任务。论文认为池化下采样不是必须的,在残差网络的结构上,使用扩张卷积替换模型内部的下采样层来提高输出的准确率。

在ImageNet上DRN的输出分辨率为28×28 (原Resnet输出7×7 ,空间分辨率提高了4倍,替换了2个下采样),论文指出在此基础上使用平均池化效果不错。使用扩张卷积会带来"gridding"问题,论文提出了一种用于消除影响的解决方案,这进一步提高了DRN的准确率。同时验证了DRN在其他任务:例如语义分割任务上表现也很不错。


3 Method

在卷积神经网络中使用下采样会降低feature的空间分辨率,这会丢失许多细节,从而影响模型对小型目标乃至目标之间关系的识别。

提高网络的家高层的分辨率的一些方法是去除下采样,这样确实会增加下游的分辨率,但下采样带来的一些好处也随之消失(去除下采样相应的减少了后续层中的感受野)。因此消除跨步使得输出层的分辨率增加也会降低感受野每个输出单元的字段为4倍,这导致严重减少了可以形成单元产生的预测的上下文量。论文采用扩张卷积来增加高层感受野的同时补偿通过去除下采样引起的感受野的减小,一举两得!

论文以Resnet为基础,提出了一个改进方法,在resnet的top layers移除下采样层,这可以保持feature map的空间分辨率,但后续的卷积层接收野分辨率下降了,这不利于模型聚合上下文信息。针对这一问题,论文使用扩张卷积替换下采样,在后续层合理使用扩张卷积,在保持feature map的空间分辨率同时维持后续层接收野的分辨率。

具体来说,对于Resnet可分为5组卷积,DRN改进了后两组卷积(记为G4 和G5 ),这两组卷积开始的卷积层都是下采样,DRN做了以下改进:

  • 去除了开始的下采样,这保持了feature的分辨率,注意到无论是G4 和G5 的第一层卷积接收野是不受影响的,但是G4的后续层接收野下降了2倍,G5的后续层接收野下降了4倍
  • 对G4  的后续层使用2倍扩张率的扩张卷积,G5 的后续层使用4倍扩张率的扩张卷积
  • 后续就是接平均池化,预测输出

                                             

转换后的DRN与原始ResNet具有相同数量的层和参数。关键的区别在于原始ResNet在每个维度上对输入图像进行下采样32倍(面积减少一千倍),而DRN将输入下采样8倍。当输入分辨率为 在224×224中,原始ResNet中G 5的输出分辨率为7×7,这不足以使输入的空间结构可辨别。 DRN中G 5的输出为28×28。因此全局平均合并值增加了24倍的值,这可以帮助分类器识别覆盖输入图像中较少数量像素的对象并在其预测中考虑这些对象。

作者在论文中提到为什么不在所有层使用扩张卷积,保证完整的分辨率?主要是考虑到当前的算力水平,全分辨率固然有利于辨别场景结构,但是于此同时需要更多的内存,这是我们不愿意看到的。

Degridding

扩张卷积的使用可能导致网格伪影。大致可以总结当使用的扩张率增加,采样点之间相隔较远,局部信息丢失,产生的预测图出现网格效应。例如下图C所示:

当特征映射具有比扩张卷积的采样率更高的频率内容时,发生网格伪像。图4显示了一个教学示例

                        

在本节中,用于从DRN产生的输出激活图中去除网格伪像。该方案如图5所示。如第2节所述构建的DRN称为DRN-A,如图5(a)所示。本节中描述的结构的中间阶段称为DRN-B,并在图5(b)中示出。最终结构称为DRN-C,如图5(c)所示。删除最大池化层。如图5(a)所示,DRN-A从ResNet架构继承了最大池化操作,初始7×7卷积。

如图5 (a) DRN-A-18所示。 继承了原始Resnet在初始的7×7 7×77×7卷积后接的最大池化操作,论文发现该池化层有高频高幅的激活,如图6 (b)所示,这样的高频传播到网络后面,会加剧gridding影响。

故图5 (b)使用卷积滤波器代替最大池化,图6 C显示了转换后的效果。

                                

添加图层

如图5 (b) DRN-B-26所示。考虑到扩张卷积产生的"gridding"影响,论文在网络的后端增加两个扩张卷积block。

移除残差连接

在图5 (b) DRN-B-26中,在网络的后端增加了两个扩张率的卷积block,但是因为增加的模块存在残差连接(残值就能直通,移除了就没办法不通过卷积了),为了完全了实现抗混叠,论文移除了残差连接,图5 C DRN-C-26所示。这样的结构虽然在深度和容量上超出了开始的DRN-A,但后续的实验证明这样结构对精度有显著的提升,与更深的DRN-A-34有类似的精度,比DRN-A-50在语义分割任务上有更好的精度。

DRN-C的特征激活图如图7所示:


5 Experiment

实验细节:

项目属性
数据集 ImageNet 2012
优化器SGD
权重衰减

mentum 0.9 weight decay 10e-4

学习率0.1(30 /epochs 减少10倍)
迭代次数120 epoch

分类任务:

 论文针对数据裁剪方式设计了两种评估手段:1-crop和10-crop:

1-crop:使用图片中间的224×224 区域
10-crop:使用图片中间、四个角和翻转后的,共10中crop,预测结果取平均
多个实验的对比结果如下:                    

                            

目标检测

在ImageNet2012验证集上,评估模型的弱监督目标定位能力,如果预测结果和Ground Truth的IoU超过0.5,则认为预测准确,实验结果如下:

                                  

语义分割:


6 Conclusion

论文还是有很多可取的地方,扩张卷积的应用也确实在其他的工作中起到了很大的作用。与此同时,实验在提出扩张卷积时出现的其他问题也给了出了合理的解决方法,并进行实验验证,说明其合理性!

 


http://chatgpt.dhexx.cn/article/yOUPSBX0.shtml

相关文章

浅谈深度神经网络 — ResNet(DRN)

Deep Residual Learning for Image Recognition 1. 思想 作者根据输入将层表示为学习残差函数。实验表明,残差网络更容易优化,并且能够通过增加相当的深度来提高准确率。 核心是解决了增加深度带来的副作用(退化问题)&#xff0…

深度学习——BRNN和DRNN

双向循环神经网络(Bidirectional RNN) 双向 RNN 模型可以让你在序列的某点处不仅可以获取之前的信息,还可以获取未来的信息 why we need BRNN? 这个网络有一个问题,在判断第三个词 Teddy(上图编号 1 所示&a…

DPRNN的学习

可以以非常简单的方式组织任意类型的RNN层(不重要,因为我这里会换成transformer)。 优点: 1.模型更小 2.性能更好(SI-SNR) 模型组成: 首先肯定是encoder和decoder了,一个声音的…

drndrn_seg代码

问题: drn文件 import pdb #pdb是 ThePythonDebugger 的缩写,为Python标准库的一个模块。pdb模块规定了一个Python程序交互式源代码调试器,支持在设置断点(包括条件断点),也支持源码级单步调试&#xff…

深度学习——DRD-Net

CVPR2020原论文:Detail-recovery Image Deraining via Context Aggregation Networks 开源代码( tensorflow框架):https://github.com/Dengsgithub/DRD-Net 1.主要工作:提出了双分支去雨网络。一个分支为基于压缩激励…

论文阅读:DRN: A Deep Reinforcement Learning Framework for News Recommendation

文章目录 摘要一、Introduction1、引入原因2、结构框架 二、相关工作1、新闻推荐算法2、推荐中的强化学习3、问题定义 三、实现原理1、模型框架2、特征构造3、深度强化推荐Deep Reinforcement Recommendation4、用户活跃度5、探索 四、实验结果1、数据集2、评价指标3、实验设置…

使用飞桨PaddlePaddle复现用于图像光源处理的深度重照明网络(DRN)

使用飞桨PaddlePaddle复现用于图像光源处理的深度重照明网络(DRN) 一、效果展示二、实现思路冠军模型:Wavelet Decomposed RelightNet (WDRN)经典模型:Norm-Relighting-U-Net (NRUNet)本次项目:Deep Relighting Networ…

弱监督学习框架 Detectron2/DRN-WSOD-pytorch 在服务器/windows上配置安装及使用

最近做弱监督学习研究,进行相关分析。发现Detectron2是一个不错的框架,其中也有model zoo相当多种类的预训练模型可以拿来直接用。但是安装配置使用中碰到了许多坑。跟各位小伙伴们分享。 推荐使用Linux Ubuntu16.04以上版本安装,虚拟机不太…

大话深度残差网络(DRN)ResNet网络原理

—— 原文发布于本人的微信公众号“大数据与人工智能Lab”(BigdataAILab),欢迎关注。 一说起“深度学习”,自然就联想到它非常显著的特点“深、深、深”(重要的事说三遍),通过很深层次的网络实现…

DRN: A Deep Reinforcement Learning Framework for News Recommendation学习

欢迎转载,请注明出处https://blog.csdn.net/ZJKL_Silence/article/details/85798935。 本文提出了(基于深度Q-learning 的推荐框架)基于强化学习的推荐系统框架来解决三个问题: 1)首先,使用DQN网络来有效建…

【超分辨率】(DRN)Closed-loop Matters: Dual Regression Networks for Single Image Super-Resolution

论文名称:Closed-loop Matters: Dual Regression Networks for Single Image Super-Resolution 论文下载地址:https://arxiv.org/pdf/2003.07018.pdf 论文代码地址:https://github.com/guoyongcs/DRN 但是代码有问题 论文标题: 1…

CNN经典模型:深度残差网络(DRN)ResNet

一说起“深度学习”,自然就联想到它非常显著的特点“深、深、深”(重要的事说三遍),通过很深层次的网络实现准确率非常高的图像识别、语音识别等能力。因此,我们自然很容易就想到:深的网络一般会比浅的网络…

2021-11-11SR-DRN

闭环问题:单张图像超分辨的对偶回归网络(DRN) SR主要是要学习LR和HR之间的某种映射来重建相应的HR图像。 一、SISR存在的两个潜在的问题: 1.学习从LR到HR的映射是一个病态的逆问题。一张LR图像可以对应多张HR图像,也就是说存在…

DNN

文章目录 前向传播从感知机到神经网络DNN的基本结构DNN前向传播算法数学原理 DNN前向传播算法反向传播算法(BP)DNN反向传播算法要解决的问题 DNN反向传播算法的基本思路DNN反向传播算法过程损失函数和激活函数的选择均方差损失函数Sigmoid激活函数的问题使用交叉熵损失函数Sigm…

DRCN神经网络

1 DRCN DRCN(Deeply-Recurisive Convolutional Network),一种利用深度递归卷积网络。DRCN与之前的VDSR都是来自首尔国立大学计算机视觉实验室的工作。该网络将插值后的图像作为输入,并像SRCNN中一样预测目标图像。 该网络分为三个部分&…

DRM(一):什么是DRM

之前说了要一起学习一下与安全紧密相关的业务事项,于是这就开始了。 今天就来看看与版权保护相关的技术:DRM 内容基本上来自:【DRM架构介绍】 还是我推荐的那个号–》内核工匠,确实内容不错,学到很多。 1、DRM是什…

推荐系统强化学习DRN

文章目录 强化学习的基本概念强化学习推荐系统框架强化学习推荐模型的特点 深度强化学习推荐模型中的DQNDRN的学习过程DRN竞争梯度下降算法 强化学习的基本概念 强化学习的基本概念就是一个智能体通过与环境进行交互,不断学习强化自己的智力,来指导自己的…

DRN - 扩张残留网络(图像分类和语义分割)

DRN - 扩张残留网络(图像分类和语义分割) 原标题 | Review: DRN — Dilated Residual Networks (Image Classification & Semantic Segmentation) 作者 | Sik-Ho Tsang 翻译 | had_in(电子科技大学) 编辑 | Pita 本文回顾…

DRN——强化学习与推荐系统结合

强化学习是近年来机器学习领域非常热门的研究话题,它的研究起源于机器人领域,针对智能体在不断变化的环境 中决策和学习的过程进行建模。在智能体的学习过程中,会完成收集外部反馈,改变自身状态,再根据自身状态对下一步的行动进行决策&#x…

【Pytorch深度学习实战】(7)深度残差网络(DRN)

🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎 📝个人主页-Sonhhxg_柒的博客_CSDN博客 📃 🎁欢迎各位→点赞…