LRN(Local Response Normalization)局部归一化分析

article/2025/9/16 0:10:30

其中LRN的公式如下:

论文中说 Denoting by aix,y the activity of a neuron computed by applying kernel i at position (x, y) and then applying the ReLU nonlinearity, the response-normalized activity bix,y is given by the expression

LRN是用在激活之后,而alexnet中激活函数用的是relu 所以结果都是大于等于0的激活值。而且这个是模仿生物上的一个叫侧抑制概念。

其作用是对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。

这个侧抑制名字就取得很有意思。一般我们如果要抑制某个神经元周围的神经元,可以直接最大池化。但是这个侧抑制是在通道维度上进行抑制。

从公式我们可以看出 其实就是在通道维度上取个半径r=n/2  对于通道上的任一点取他半径内的点进行平方累加(这里取值注意不要超过边界)。

从公式角度分析下为什么叫局部归一化(这只是我个人理解)

对于归一化很好理解将数据映射到(0, 1)之间但是上面的公式好像不是很好理解

这里我们取几个特殊值分析下: k=0, alpha=1  beta=1/2  j 从0取到N-1  (N 为通道维度)

上面公式 变成

bi_xy = ai_xy /(∑j  aj_xy **2)**1/2   j 从0取到N-1   这时候公式不就是 x`= x / ||x||

但是我们公式只取了半径r=n/2内的值来做归一化所以叫做局部归一化

抑制也是对通道上半径r内的神经元进行抑制。如果我们将每一个特征图当做学到的一种特征,不同的特征图学到的是不同的特征,那么不同的通道上相同位置神经元应该也学到不同的信息才行,所以进行这个局部归一化的理由貌似也说的通,使得其中响应比较大的值变得相对更大,响应比较小的值相对更小。形象店说就是如果某个通道上的神经元学到了某种特征,就可以广播下告诉半径r=n/2内不同通道相同位置的神经元,我已经先下手为强了,领先你一个身为,你就不要在继续舔了,没戏~

遗憾的是虽然我们上面分析了这么多,后续就有学者提出了这个其实没什么卵用,这就很尴尬~

 

与君共勉~ 


http://chatgpt.dhexx.cn/article/pG1iemW4.shtml

相关文章

LRN学习笔记

LRN(Local Response Normalization) 作用:将不同卷积核RELU后的feature归一化,平滑处理,能增加泛化能力。 原因:生物方面,玄学 Alexnet提出 公式: 其中i代表第i个卷积核 a x , y i , 表 示 第…

LRN(局部响应归一化)

原理: LRN层模仿了生物神经系统的“侧抑制”机制,对局部神经元的活动创建竞争环境,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强模型的泛化能力。 LRN对于ReLU这种没有上限边界的激活函数会比…

LRN局部响应标准化

全称:local response normalization最早来源于论文AlexNet中提到的:i:代表下标,你要计算像素值的下标,从0计算起 j:平方累加索引,代表从j~i的像素值平方求和 x,y:像素的位…

tensorflow下的局部响应归一化函数tf.nn.lrn

1、其中LRN就是局部响应归一化: 这个技术主要是深度学习训练时的一种提高准确度的技术方法。其中caffe、tensorflow等里面是很常见的方法,其跟激活函数是有区别的,LRN一般是在激活、池化后进行的一中处理方法。 AlexNet将LeNet的思想发扬光大…

局部响应归一化(Local Response Normalization,LRN)和批量归一化(Batch Normalization,BN)的区别

为什么要归一化? 归一化已成为深度神经网络中的一个重要步骤,它可以弥补ReLU、ELU等激活函数无界性的问题。有了这些激活函数,输出层就不会被限制在一个有限的范围内(比如tanh的 [ − 1 , 1 ] [-1,1] [−1,1]),而是可以根据训练需…

LRN 局部响应归一化层(Local Response Normalization)

局部响应归一化层(Local Response Normalization) 局部响应归一化层简称LRN,是在深度学习中提高准确度的技术方法。一般是在激活、池化后进行的一中处理方法,因在Alexnet中运用到,故做一下整理。 为什么要引入LRN层&a…

AlexNet中的LRN(Local Response Normalization)

神经网络初学者,没有什么理论基础,偶然看到个ImageNet,就准备从其入手,先弄懂每层的含义,其中这个LRN层真是让人百思不得其解,搜索了下,给出的介绍比较少。为什么会比较少呢,搜索到最…

Alexnet LRN层和conv2局部连接

LRN(local response norm)局部归一 AlexNet本文出自NIPS2012,作者是大神Alex Krizhevsky,属于多伦多大学Hinton组。当年取得了ImageNet最好成绩,也是在那年之后,更多的更深的神经网路被提出,比…

tensorflow中的lrn函数详解

LRN函数类似DROPOUT和数据增强作为relu激励之后防止数据过拟合而提出的一种处理方法,全称是 local response normalization--局部响应标准化。这个函数很少使用,基本上被类似DROPOUT这样的方法取代,具体原理还是值得一看的 函数原型 def lrn(input, de…

CNN中的LRN层

LRN层是按下述公式计算的:(用处不大 可被dropout normalization替代) 转自:https://blog.csdn.net/searobbers_duck/article/details/51645941

ImageNet 中的 LRN

LRN(Local Response Normalization) LRN 神经网络初学者,没有什么理论基础,偶然看到个ImageNet,就准备从其入手,先弄懂每层的含义,其中这个LRN层真是让人百思不得其解,搜索了下&am…

LRN局部响应归一化

这个技术主要是深度学习训练时的一种提高准确度的技术方法。其中caffe、tensorflow等里面是很常见的方法,其跟激活函数是有区别的,LRN一般是在激活、池化后进行的一中处理方法。   AlexNet将LeNet的思想发扬光大,把CNN的基本原理应用到了很…

深度神经网络中的局部响应归一化LRN简介及实现

Alex、Hinton等人在2012年的NIPS论文《ImageNet Classification with Deep Convolutional Neural Networks》中将LRN应用于深度神经网络中(AlexNet)。论文见:http://www.cs.toronto.edu/~hinton/absps/imagenet.pdf ,截图如下: 公式解释&…

LRN

发展时间点 局部响应归一化这个方法流行于2012年的 AlexNet网络,它将这种方法付诸实践,验证了它的可行性。在caffe框架和tensorflow框架中,这都是经常和卷积、池化配合使用的方法。 作用时间点:LRN一般是在激活、池化后进行的一中…

LRN (Local Response Normalization,即局部响应归一化层)

LRN (Local Response Normalization,即局部响应归一化层) (一)先看看归一化吧 什么是归一化? 归一化化是归纳统一样本的统计分布性。就是要把你需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范…

详解LRN(local response normalization--局部响应标准化)缓解过拟合

局部响应归一化层(Local Response Normalization) LRN全称为Local Response Normalization,即局部响应归一化层,LRN函数类似Dropout和数据增强作为relu激活函数之后防止数据过拟合而提出的一种处理方法。这个函数很少使用&#xf…

局部响应归一化LRN (Local Response Normalization)

一、LRN技术介绍: LRN(Local Response Normalization) 是一种提高深度学习准确度的技术方法。 LRN 一般是在激活、 池化函数后的一种方法。在 ALexNet 中, 提出了 LRN 层, 对局部神经元的活动创建竞争机制&#xff0c…

深度学习饱受争议的局部响应归一化(LRN)详解

前言:Local Response Normalization(LRN)技术主要是深度学习训练时的一种提高准确度的技术方法。其中caffe、tensorflow等里面是很常见的方法,其跟激活函数是有区别的,LRN一般是在激活、池化后进行的一种处理方法。LRN归一化技术首次在AlexNe…

压缩算法之算术编码浅析与实现

压缩算法之算术编码浅析与实现 简介实现思路实现代码参考资料 简介 算术编码,属于熵编码的范畴,常用于各种信息压缩场合,如图像、视频、音频压缩领域。 基本原理: 核心原则:出现频率高的信息,分配少的比特…

算术编码(1)

序列a2a1的区间为(0.2,0.22) 算术解码步骤: