深度学习-感受野与有效感受野

article/2025/9/14 16:02:21

文章目录

  • 感受野
  • 增加感受野
  • 有效感受野
  • 与反卷积的区别
  • 总结

感受野

卷积核的大小(高度和宽度)定义了一个区域的空间范围,改区域可以被卷积核在每个卷积步骤中修改,因而卷积核的大小称为卷积核的“感受野”。
感受野(receptive field, RF),卷积神经网络每一层输出的特征图(feature map)上的特征点在原始图像上映射的区域大小,即特征点能“看”到的范围。越高(深)层的特征点描述的原图信息越全面,越能表述语义信息。

神经元之所以无法对原始图像的所有信息进行感知,是因为在卷积神经网络中普遍使用卷积层和pooling层,在层与层之间均为局部连接。

神经元感受野的值越大表示其能接触到的原始图像范围就越大,也意味着它可能蕴含更为全局,语义层次更高的特征;相反,值越小则表示其所包含的特征越趋向局部和细节。因此感受野的值可以用来大致判断每一层的抽象层次。

在这里插入图片描述

感受野计算公式:

其中,L 表示感受野大小,f 表示卷积核(kernel size),s 表示卷积步长(stride)。起始卷积层(F0),感受野大小等于。
l k = f + n ( f − 1 ) l_k=f+n(f-1) lk=f+n(f1)
在这里插入图片描述
其中, f k f_k fk表示第n层的卷积核大小, s i s_i si表示每一个前一层的步幅长度, l k − 1 l_{k-1} lk1表示前一层的有效感受野。

对于上图,计算上图感受野:
F0层: L0 = f = 3;
F1层: L1 = 3 + (3-1) * 1 = 5;
特别的,当前特征层(feature map)感受野与之前层相关,与当前层卷积核大小相关,与步长(stride),填充(padding)无关。理论感受野尺寸可以大于网络输入尺寸。

增加感受野

为了实现具有相对减少的参数数量的非常深的模型,成功的策略是将许多具有较小的感受野的卷积层堆叠。但是限制了所学习的卷积核的空间大小,其仅与层数线性地成比例。

扩张卷积(空洞卷积)
是一种扩展感受野大小而不增加参数数量的方法。中心思想是引入新的空洞参数(d),其在执行卷积时决定卷积核权重之间的间隔。一个因子为d的空洞意味着原始卷积核在每个元素之间扩展d-1个空格,并且中间的空位置用零填充。
将尺寸为fxf的卷积核放大到大小为f+(d-1)(f-1).对应于具有预定义卷积核大小f、零填充幅度p、步幅s、空洞因子d且高度h和宽度w的输入的卷积运算的输出维度如下
h ‘ = ( h − f − ( d − 1 ) ( f − 1 ) + s + 2 p ) / s h^`={(h-f-(d-1)(f-1)+s+2p)/s} h=(hf(d1)(f1)+s+2p)/s
w ‘ = ( w − f − ( d − 1 ) ( f − 1 ) + s + 2 p ) / s w^`={(w-f-(d-1)(f-1)+s+2p)/s} w=(wf(d1)(f1)+s+2p)/s

第n层的有效感受野可以表示为:
R F n = R F n − 1 + d ( f − 1 ) RF^n=RF^{n-1}+d(f-1) RFn=RFn1+d(f1),满足 R F 1 = f RF^1=f RF1=f
在这里插入图片描述1)增加网络层数。特别的,增加网络层数时,对于 f!=1 的网络层数即使feature map大小没有改变,感受野也会增加。
2)增加池化层。成倍的增加感受野。
3)更大的卷积核。通常为了保持feature map的尺寸,更大的卷积核需要相应的padding作为补充。例如,卷积核(k=3,s=2,p=0)与(k=7,s=2,p=3)能够获得相同尺寸的feature map,但后者的感受野要大于前者。

有效感受野

在这里插入图片描述

有效感受野(effective receptive field, ERF),在卷积计算时,实际有效的感受野区域。在F0特征层中,特征点6可以描述其他所有特征点的部分信息,即图中交叠部分,特征点6代表的信息更“有效”。即越靠近感受野中心的区域越有效。在网络训练时,有效感受野对参数的影响更大。
在这里插入图片描述

与反卷积的区别

反卷积(deconv):
主要用于增大图像尺寸,是upsampling的一种,而空洞卷积并没有做upsampling,空洞卷积是为了增大感受野,可以不改变图像的大小。
对于反卷积简单理解就是在输入特征矩阵中插入空白点,再进行卷积,这样卷积后输出的特征矩阵就变大了。

对于标准k*k卷积核,stride为s,分三种情况:

1) s>1,在卷积同时伴随着downsampling操作,卷积后图像变小了(这种操作也可以增大感受野,但是输出的图像大小变小了)
2) s=1,在padding设置为stride大小时,卷积后图片大小不变;
3)s<1,相当于对原图作upsampling操作进行扩大原图,然后再卷积,这样得到的结果图就变大了。例如s=0.5s=0.5s=0.5意味着在原特征图的每相邻数据间插入一个空白数据,这样再进行卷积,它的输出特征图就变大了。

上面3)所描述的就是反卷积,它的核心是在原来图像上插入空白数据。而空洞卷积就是在卷积核插入空白数据,或是说在卷积是跳过特征图的部分数据。

总结

神经网络中,感受野可以描述特征点的最大信息量,有效感受野则可以描述信息的有效性。充分理解感受野与有效感受野的概念,在设计网络时,可以依据此计算网络层数,卷积核大小,卷积步长。甚至根据任务不同,自动生成backbone。


http://chatgpt.dhexx.cn/article/uFMACV4T.shtml

相关文章

3.3.2 感受野

3.3.2 感受野 1962年Hubel和Wiesel通过对猫视觉皮层细胞的研究&#xff0c;提出了感受野(receptive field)的概念&#xff0c;Fukushima基于感受野概念提出的神经认知机(neocognitron)可以看作是卷积神经网络的第一个实现网络。 3.3.6 卷积网络的感受野Receptive field (RF)以…

目标检测和感受野的总结

目录 1、感受野 2、理论感受野计算 2.1、自上而下感受野计算 2.2、自下而上的计算方法 3、作用 4、关系 5、总结 6、参考文献 经典目标检测和最新目标跟踪都用到了RPN(region proposal network)&#xff0c;锚框(anchor)是RPN的基础&#xff0c;感受野(receptive field…

CNN中的感受野

CNN中有一个概念叫局部感受野&#xff08;local receptive field&#xff09;&#xff0c;那什么是感受野呢&#xff1f;一般的CNN结构都是卷积-池化这样重复下去&#xff0c;比如下表&#xff1a; layers size stride input100*100*1---conv13*31pool12*22conv23*31pool22*2…

详解CNN的感受野

目录 前言 CNN特征图可视化 感受野计算公式 计算Receptive Field Size的小程序 前言 感受野&#xff08;receptive field&#xff0c;RF&#xff09;也许是CNN中最重要的概念之一&#xff0c;从文献上来看&#xff0c;它应当引起足够的重视。目前所有最好的图像识别方法都是…

感受野计算问题

我觉得以下两篇文章&#xff0c;在感受野的含义和计算上&#xff0c;说的是比较好的。 1、深度学习&#xff1a;VGG&#xff08;Vision Geometrical Group&#xff09;论文详细讲解_HanZee的博客-CSDN博客 2、关于感受野的总结 - 知乎 我们知道一个图片经过了一个7 * 7卷积…

目标检测中的感受野

一、定义 卷积神经网络输出特征图上的像素点 在原始图像上所能看到区域的大小&#xff0c;输出特征会受感受野区域内的像素点的影响 在卷积神经网络中,感受野(Receptive Field)是指特征图上的某个点能看到的输入图像的区域,即特征图上的点是由输入图像中感受野大小区域的计算…

感受野的理解与调研

问题来源 讲论文的时候&#xff0c;突然被别人问到感受野是个什么东东? 就百度查了一下&#xff1a; 重要知识链接总结 画深度学习的模型图方法&#xff1a;知网链接 神经网络模型图网站&#xff1a;画模型 感受野 一、感受野的概念 感受野&#xff08;Receptive Field&am…

卷积的感受野

title: 卷积的感受野 date: 2022-06-14 19:52:38 tags: 深度学习基础 卷积的感受野 文章目录 title: 卷积的感受野 date: 2022-06-14 19:52:38 tags: 深度学习基础卷积的感受野什么是感受野为什么浅层特征预测小目标&#xff0c;深层特征预测大目标深层特征检测大目标&#xf…

感受野

感受野 先图解一下啥是感受野 感受野具体就是通过卷积核扫描原始图片之后一个feature map的格子代表原始图片的范围大小。 如上图&#xff0c;这是一个55的原始图片padding11&#xff0c;卷积核33&#xff0c;步距2。卷积扫描两次的示意图。 &#xff08;2个33的卷积核扫描两次…

卷积神经网络中感受野的详细介绍

"微信公众号" 本文同步更新在我的微信公众号里面&#xff0c;地址&#xff1a;https://mp.weixin.qq.com/s/qMasyxRILzyEF3YyLvjzqQ 本文同步更新在我的知乎专栏里面&#xff0c;地址&#xff1a;https://zhuanlan.zhihu.com/p/39184237 1. 感受野的概念 在卷积神经…

感受野详解

目录 概念举例感受野的计算规律两种计算感受野的方法从前往后从后往前 推导VGG16网络的感受野结构从后往前从前往后 感受野大于图片为什么要增大感受野 概念 在卷积神经网络中&#xff0c;感受野&#xff08;Receptive Field&#xff09;的定义是卷积神经网络每一层输出的特征…

深度理解感受野(一)什么是感受野?

Introduction 经典目标检测和最新目标跟踪都用到了RPN(region proposal network)&#xff0c;锚框(anchor)是RPN的基础&#xff0c;感受野(receptive field, RF)是anchor的基础。本文介绍感受野及其计算方法&#xff0c;和有效感受野概念 什么是感受野? 感受野与视觉 感受…

感受野的含义及计算方法

1 感受野(Receptive Field)的概念 感受野(Receptive Field)的概念&#xff1a;在卷积神经网络中&#xff0c;感受野的定义是 卷积神经网络每一层输出的特征图&#xff08;feature map&#xff09;上的像素点在原始输入图像上映射的区域大小。第一层卷积层的输出特征图像素的感…

感受野是什么?

在卷积神经网络中,感受野(Receptive Field)是指特征图上的某个点能看到的输入图像的区域,即特征图上的点是由输入图像中感受野大小区域的计算得到的。神经元感受野的值越大表示其能接触到的原始图像范围就越大&#xff0c;也意味着它可能蕴含更为全局&#xff0c;语义层次更高的…

细说卷积神经网络(CNN)中所谓的“感受野”(Receptive Field)

感受野 一、感受野1.全连接网络与卷积神经网络2.进一步体验“感受野”3.计算感受野通用方式4.综合实例5.总结 一、感受野 感受野&#xff1a;卷积神经网络中每个网络层输出的特征图中的单个元素映射回原始输入特征中的区域大小&#xff0c;网络层越深&#xff0c;其输出特征的元…

【Kafka】10道不得不会的 Kafka 面试题

博主介绍&#xff1a; &#x1f680;自媒体 JavaPub 独立维护人&#xff0c;全网粉丝15w&#xff0c;csdn博客专家、java领域优质创作者&#xff0c;51ctoTOP10博主&#xff0c;知乎/掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和副业。&#x1f680; 公众号&…

Java程序员必备的50道Kafka面试题及解析,面试再也不怕问Kafka了

前言 Apache Kafka的受欢迎程度很高&#xff0c;Kafka拥有充足的就业机会和职业前景。此外&#xff0c;在这个时代拥有kafka知识是一条快速增长的道路。所以&#xff0c;在这篇文章中&#xff0c;我们收集了Apache Kafka面试中常见的问题&#xff0c;并提供了答案。因此&#…

Kafka面试题总结

1、kafka是什么? 可以用来做什么? Kafka 是一个分布式的、高吞吐量的、可持久性的、自动负载均衡的消息队列。 它不仅可以实现传统意义上MQ功能&#xff0c;异步、解耦、削峰。 还可以作为大数据的流处理平台。 2、为什么kafka安装需要依赖Zookeeper? 配置中心&#xf…

kafka面试题知识点整理

kafka-面试题整理 刚刚学了kafka&#xff0c;整理一些面试题知识点&#xff0c;帮助记忆1、什么是kafka2、什么是消息队列3、kafka通信流程4、Leader选举流程5、副本及同步原理6、消费者消费数据的方式7、分区分配策略以及原理8、如何保证消息的可靠性9、数据有序/乱序10、幂等…

kafka面试题

1.Kafka数据积压如何处理&#xff1f; 1. 实时/消费任务挂掉导致的消费滞后 a. 任务重新启动后直接消费最新的消息&#xff0c;对于"滞后"的历史数据采用离线程序进行"补漏"。b. 任务启动从上次提交offset处开始消费处理 如果积压的数据量很大&#xff0c…