tf.nn.lrn() 局部响应归一化函数

article/2025/9/15 23:28:17

背景文档

1、首先先了解一下 什么是过拟合和欠拟合?by Panda.X

2、下面简单说一下LRN,全称Local Response Normalization (局部响应归一化函数),是一种防止过拟合的方法,一般在激活层之后使用。这个函数很少使用,基本上被类似Dropout这样的方法取代。详细算法说明请参考【深度学习技术】LRN 局部响应归一化 by CrazyVertigo

Tensorflow官方文档中的tf.nn.lrn函数给出了局部响应归一化的论文出处
详见 http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks

 

LRN计算公式

下面结合tf.nn.lrn()的参数来解释一下其中的变量。

  • 公式中的a表示函数的输入Tensor,即input:一个4D-Tensor,[ batch, height, width, channel],数据类型可以是 half,bfloat16, float32
  • k 对应参数bias:偏移值,用于避免分母等于0, 默认值为1,
    • 通常设positive float,也可以设为None(取默认值)。
    • 若值<=0, output中可能出现nan
  • α 对应参数alpha:缩放因子,默认值为1,通常设positive float,也可以设为None(取默认值)。
  • β 对应参数beta:指数,默认值为0.5,float类型,也可以设为None(取默认值)。
  • n /2 对应参数depth_radius:用于定义邻域长度,默认值为5,int类型(positive),也可以设为None(取默认值)。
  • i:指的是channel,也就是说累加操作是沿着输入Tensor的channel方向进行的。
  • N:表示通道总数,即channel值。

就是一个点沿着channel方向(前 depth_radius + 后depth_radius)的点的平方加,乘以alpha,即  sqr_sum[a, b, c, d] = sum(input[a, b, c, d - depth_radius : d + depth_radius + 1] ** 2)

output = input / (bias + sqr_sum)** beta

def lrn(input, depth_radius=5, bias=1, alpha=1, beta=0.5, name=None
)

 


http://chatgpt.dhexx.cn/article/Sm6H8Xl8.shtml

相关文章

LRN层的实现

版权声明&#xff1a;本文为卜居原创文章&#xff0c;未经博主允许不得转载。卜居博客地址&#xff1a;http://blog.csdn.net/kkk584520 LRN全称为Local Response Normalization&#xff0c;即局部响应归一化层&#xff0c;具体实现在CAFFE_ROOT/src/caffe/layers/lrn_layer.cp…

简谈caffe中的LRN层

昨日面试&#xff0c;被问道BN层和LRN层&#xff0c;一直以来用的都是&#xff42;&#xff4e;&#xff0c;所以当时对&#xff2c;&#xff32;&#xff2e;只剩下点印象&#xff0c;事后弥补了一下这边知识点的不足&#xff0c;浅谈自己对&#xff2c;&#xff32;&#xff…

LRN(Local Response Normalization)局部归一化分析

其中LRN的公式如下&#xff1a; 论文中说 Denoting by aix,y the activity of a neuron computed by applying kernel i at position (x, y) and then applying the ReLU nonlinearity, the response-normalized activity bix,y is given by the expression LRN是用在激活之后…

LRN学习笔记

LRN&#xff08;Local Response Normalization) 作用&#xff1a;将不同卷积核RELU后的feature归一化&#xff0c;平滑处理&#xff0c;能增加泛化能力。 原因&#xff1a;生物方面&#xff0c;玄学 Alexnet提出 公式&#xff1a; 其中i代表第i个卷积核 a x , y i , 表 示 第…

LRN(局部响应归一化)

原理&#xff1a; LRN层模仿了生物神经系统的“侧抑制”机制&#xff0c;对局部神经元的活动创建竞争环境&#xff0c;使得其中响应比较大的值变得相对更大&#xff0c;并抑制其他反馈较小的神经元&#xff0c;增强模型的泛化能力。 LRN对于ReLU这种没有上限边界的激活函数会比…

LRN局部响应标准化

全称&#xff1a;local response normalization最早来源于论文AlexNet中提到的&#xff1a;i&#xff1a;代表下标&#xff0c;你要计算像素值的下标&#xff0c;从0计算起 j&#xff1a;平方累加索引&#xff0c;代表从j&#xff5e;i的像素值平方求和 x,y&#xff1a;像素的位…

tensorflow下的局部响应归一化函数tf.nn.lrn

1、其中LRN就是局部响应归一化&#xff1a; 这个技术主要是深度学习训练时的一种提高准确度的技术方法。其中caffe、tensorflow等里面是很常见的方法&#xff0c;其跟激活函数是有区别的&#xff0c;LRN一般是在激活、池化后进行的一中处理方法。 AlexNet将LeNet的思想发扬光大…

局部响应归一化(Local Response Normalization,LRN)和批量归一化(Batch Normalization,BN)的区别

为什么要归一化&#xff1f; 归一化已成为深度神经网络中的一个重要步骤&#xff0c;它可以弥补ReLU、ELU等激活函数无界性的问题。有了这些激活函数&#xff0c;输出层就不会被限制在一个有限的范围内(比如tanh的 [ − 1 , 1 ] [-1,1] [−1,1])&#xff0c;而是可以根据训练需…

LRN 局部响应归一化层(Local Response Normalization)

局部响应归一化层&#xff08;Local Response Normalization&#xff09; 局部响应归一化层简称LRN&#xff0c;是在深度学习中提高准确度的技术方法。一般是在激活、池化后进行的一中处理方法&#xff0c;因在Alexnet中运用到&#xff0c;故做一下整理。 为什么要引入LRN层&a…

AlexNet中的LRN(Local Response Normalization)

神经网络初学者&#xff0c;没有什么理论基础&#xff0c;偶然看到个ImageNet&#xff0c;就准备从其入手&#xff0c;先弄懂每层的含义&#xff0c;其中这个LRN层真是让人百思不得其解&#xff0c;搜索了下&#xff0c;给出的介绍比较少。为什么会比较少呢&#xff0c;搜索到最…

Alexnet LRN层和conv2局部连接

LRN&#xff08;local response norm&#xff09;局部归一 AlexNet本文出自NIPS2012&#xff0c;作者是大神Alex Krizhevsky&#xff0c;属于多伦多大学Hinton组。当年取得了ImageNet最好成绩&#xff0c;也是在那年之后&#xff0c;更多的更深的神经网路被提出&#xff0c;比…

tensorflow中的lrn函数详解

LRN函数类似DROPOUT和数据增强作为relu激励之后防止数据过拟合而提出的一种处理方法,全称是 local response normalization--局部响应标准化。这个函数很少使用&#xff0c;基本上被类似DROPOUT这样的方法取代&#xff0c;具体原理还是值得一看的 函数原型 def lrn(input, de…

CNN中的LRN层

LRN层是按下述公式计算的&#xff1a;&#xff08;用处不大 可被dropout normalization替代&#xff09; 转自&#xff1a;https://blog.csdn.net/searobbers_duck/article/details/51645941

ImageNet 中的 LRN

LRN&#xff08;Local Response Normalization&#xff09; LRN 神经网络初学者&#xff0c;没有什么理论基础&#xff0c;偶然看到个ImageNet&#xff0c;就准备从其入手&#xff0c;先弄懂每层的含义&#xff0c;其中这个LRN层真是让人百思不得其解&#xff0c;搜索了下&am…

LRN局部响应归一化

这个技术主要是深度学习训练时的一种提高准确度的技术方法。其中caffe、tensorflow等里面是很常见的方法&#xff0c;其跟激活函数是有区别的&#xff0c;LRN一般是在激活、池化后进行的一中处理方法。   AlexNet将LeNet的思想发扬光大&#xff0c;把CNN的基本原理应用到了很…

深度神经网络中的局部响应归一化LRN简介及实现

Alex、Hinton等人在2012年的NIPS论文《ImageNet Classification with Deep Convolutional Neural Networks》中将LRN应用于深度神经网络中(AlexNet)。论文见&#xff1a;http://www.cs.toronto.edu/~hinton/absps/imagenet.pdf &#xff0c;截图如下&#xff1a; 公式解释&…

LRN

发展时间点 局部响应归一化这个方法流行于2012年的 AlexNet网络&#xff0c;它将这种方法付诸实践&#xff0c;验证了它的可行性。在caffe框架和tensorflow框架中&#xff0c;这都是经常和卷积、池化配合使用的方法。 作用时间点&#xff1a;LRN一般是在激活、池化后进行的一中…

LRN (Local Response Normalization,即局部响应归一化层)

LRN (Local Response Normalization&#xff0c;即局部响应归一化层) &#xff08;一&#xff09;先看看归一化吧 什么是归一化&#xff1f; 归一化化是归纳统一样本的统计分布性。就是要把你需要处理的数据经过处理后&#xff08;通过某种算法&#xff09;限制在你需要的一定范…

详解LRN(local response normalization--局部响应标准化)缓解过拟合

局部响应归一化层&#xff08;Local Response Normalization&#xff09; LRN全称为Local Response Normalization&#xff0c;即局部响应归一化层&#xff0c;LRN函数类似Dropout和数据增强作为relu激活函数之后防止数据过拟合而提出的一种处理方法。这个函数很少使用&#xf…

局部响应归一化LRN (Local Response Normalization)

一、LRN技术介绍&#xff1a; LRN&#xff08;Local Response Normalization&#xff09; 是一种提高深度学习准确度的技术方法。 LRN 一般是在激活、 池化函数后的一种方法。在 ALexNet 中&#xff0c; 提出了 LRN 层&#xff0c; 对局部神经元的活动创建竞争机制&#xff0c…