23种激活函数

article/2025/9/27 4:45:45

文章目录

    • 一、简介
    • 二、激活函数种类
      • 1、恒等函数
      • 2、单位阶跃函数
      • 3、逻辑函数
      • 4、双曲正切函数
      • 5、反正切函数
      • 6、Softsign函数
      • 7、反平方根函数(ISRU)
      • 8、线性整流函数(ReLU)
      • 9、带泄露线性整流函数(Leaky ReLU)
      • 10、参数化线性整流函数(PReLU)
      • 11、带泄露随机线性整流函数(RReLU)
      • 12、指数线性函数(ELU)
      • 13、扩展指数线性函数(SELU)
      • 14、S型线性整流激活函数(SReLU)
      • 15、反平方根线性函数(ISRLU)
      • 16、自适应分段线性函数(APL)
      • 17、SoftPlus函数
      • 18、弯曲恒等函数
      • 19、Sigmoid Weighted Liner Unit(SiLU)
      • 20、SoftExponential
      • 21、正弦函数
      • 22、Sinc函数
      • 23、高斯函数

一、简介

   一个节点的激活函数(Activation Function)定义了该节点在给定的输入或输入的集合下的输出。神经网络中的激活函数用来提升网络的非线性(只有非线性的激活函数才允许网络计算非平凡问题),以增强网络的表征能力。对激活函数的一般要求是:必须非常数、有界、单调递增并且连续,并且可导。
  在实际选择激活函数时并不会严格要求可导,只需要激活函数几乎在所有点可导即可,即在个别点不可导是可以接受的。另外,其导数尽可能的大可以帮助加速训练神经网络,否则导数过小会导致网络无法继续训练下去。

二、激活函数种类

  下面是不同的激活函数的函数公式,图像和导数公式,图像。

1、恒等函数

f ( x ) = x f ′ ( x ) = 1 f(x)=x \qquad\qquad\qquad f^{'}(x)=1 f(x)=xf(x)=1
在这里插入图片描述

2、单位阶跃函数

f ( x ) = { 0 , x < 0 1 , x ≥ 0 f ′ ( x ) = { 0 , x ≠ 0 ? , x = 0 f(x)=\left\{\begin{array} {ll} 0,x < 0\\1,x\ge 0 \end{array}\right.\qquad\qquad f^{'}(x)=\left\{\begin{array} {ll} 0,x \ne 0\\?,x= 0 \end{array}\right. f(x)={0,x<01,x0f(x)={0,x=0?,x=0
在这里插入图片描述

3、逻辑函数

f ( x ) = σ ( x ) = 1 1 + e − x f ′ ( x ) = f ( x ) ( 1 − f ( x ) ) f(x)=\sigma(x)=\frac{1}{1+e^{-x}}\qquad\qquad f^{'}(x)=f(x)(1-f(x)) f(x)=σ(x)=1+ex1f(x)=f(x)(1f(x))
在这里插入图片描述
在这里插入图片描述

4、双曲正切函数

f ( x ) = t a n h ( x ) = ( e x − e − x ) e x + e − x f ′ ( x ) = 1 − f ( x ) 2 f(x)=tanh(x)=\frac{(e^x-e^{-x})}{e^x+e^{-x}}\qquad \qquad f^{'}(x)=1-f(x)^2 f(x)=tanh(x)=ex+ex(exex)f(x)=1f(x)2
在这里插入图片描述
在这里插入图片描述

5、反正切函数

f ( x ) = t a n − 1 ( x ) f ′ ( x ) = 1 x 2 + 1 f(x)=tan^{-1}(x)\qquad\qquad f^{'}(x)=\frac{1}{x^2+1} f(x)=tan1(x)f(x)=x2+11
在这里插入图片描述

6、Softsign函数

f ( x ) = x 1 + ∣ x ∣ f ′ ( x ) = 1 ( 1 + ∣ x ∣ ) 2 f(x)=\frac{x}{1+|x|}\qquad\qquad f^{'}(x)=\frac{1}{(1+|x|)^2} f(x)=1+xxf(x)=(1+x)21
在这里插入图片描述

7、反平方根函数(ISRU)

f ( x ) = x 1 + α x 2 f ′ ( x ) = ( 1 1 + α x 2 ) 3 f(x)=\frac{x}{\sqrt{1+\alpha x^2}}\qquad \qquad f^{'}(x)=(\frac{1}{\sqrt{1+\alpha x^2}})^3 f(x)=1+αx2 xf(x)=(1+αx2 1)3
在这里插入图片描述
在这里插入图片描述

8、线性整流函数(ReLU)

f ( x ) = { 0 , x < 0 x , x ≥ 0 f ′ ( x ) = { 0 , x < 0 1 , x ≥ 0 f(x)= \left\{\begin{array}{ll}0,x<0\\x,x\ge 0 \end{array}\right.\qquad\qquad f^{'}(x)=\left\{\begin{array}{ll}0,x<0\\1,x\ge 0 \end{array}\right. f(x)={0,x<0x,x0f(x)={0,x<01,x0
在这里插入图片描述

9、带泄露线性整流函数(Leaky ReLU)

f ( x ) = { 0.01 x , x < 0 x , x ≥ 0 f ′ ( x ) = { 0.01 , x < 0 1 , x ≥ 0 f(x)= \left\{\begin{array}{ll}0.01x,x<0\\x,x\ge 0 \end{array}\right.\qquad\qquad f^{'}(x)=\left\{\begin{array}{ll}0.01,x<0\\1,x\ge 0 \end{array}\right. f(x)={0.01x,x<0x,x0f(x)={0.01,x<01,x0
在这里插入图片描述

10、参数化线性整流函数(PReLU)

f ( x ) = { α x , x < 0 x , x ≥ 0 f ′ ( x ) = { α , x < 0 1 , x ≥ 0 f(x)= \left\{\begin{array}{ll}\alpha x,x<0\\x,x\ge 0 \end{array}\right.\qquad\qquad f^{'}(x)=\left\{\begin{array}{ll}\alpha,x<0\\1,x\ge 0 \end{array}\right. f(x)={αx,x<0x,x0f(x)={α,x<01,x0
在这里插入图片描述

11、带泄露随机线性整流函数(RReLU)

f ( x ) = { α x , x < 0 x , x ≥ 0 f ′ ( x ) = { α , x < 0 1 , x ≥ 0 f(x)= \left\{\begin{array}{ll}\alpha x,x<0\\x,x\ge 0 \end{array}\right.\qquad\qquad f^{'}(x)=\left\{\begin{array}{ll}\alpha,x<0\\1,x\ge 0 \end{array}\right. f(x)={αx,x<0x,x0f(x)={α,x<01,x0
在这里插入图片描述

12、指数线性函数(ELU)

f ( x ) = { α ( e x − 1 ) , x < 0 x , x ≥ 0 f ′ ( x ) = { f ( α , x ) + α , x < 0 1 , x ≥ 0 f(x)= \left\{\begin{array}{ll}\alpha(e^x-1),x<0\\x,x\ge 0 \end{array}\right.\qquad\qquad f^{'}(x)=\left\{\begin{array}{ll}f(\alpha,x)+\alpha,x<0\\1,x\ge 0 \end{array}\right. f(x)={α(ex1),x<0x,x0f(x)={f(α,x)+α,x<01,x0
在这里插入图片描述

13、扩展指数线性函数(SELU)

f ( x ) = λ { α ( e x − 1 ) , x < 0 x , x ≥ 0 λ = 1.0507 , α = 1.67326 f ′ ( x ) = λ { α ( e x ) , x < 0 1 , x ≥ 0 \begin{aligned} f(x)=\lambda \left\{\begin{array}{ll}\alpha(e^x-1),x<0\\x,x\ge 0 \end{array}\right. \\ \lambda=1.0507,\alpha=1.67326 \end{aligned} \qquad\qquad f^{'}(x)=\lambda \left\{\begin{array}{ll}\alpha(e^x),x<0\\1,x\ge 0 \end{array}\right. f(x)=λ{α(ex1),x<0x,x0λ=1.0507,α=1.67326f(x)=λ{α(ex),x<01,x0
在这里插入图片描述

14、S型线性整流激活函数(SReLU)

f t l , a l , t r , a r ( x ) = { t l + a l ( x − t l ) , x ≤ t l x , t l < x < t r t r + a r ( x − t r ) , x ≥ t r t l , a l , t r , a r 为 参 数 f t l , a l , t r , a r ′ ( x ) = { a l , x ≤ t l 1 , t l < x < t r a r , x ≥ t r \begin{aligned} f_{t_l,a_l,t_r,a_r}(x)=\left\{\begin{array} {ll} t_l+a_l(x-t_l),x\le t_l\\ x,t_l<x<t_r\\ t_r+a_r(x-t_r),x\ge t_r \end{array}\right.\\ t_l,a_l,t_r,a_r为参数 \end{aligned}\qquad\qquad f_{t_l,a_l,t_r,a_r}^{'}(x)=\left\{\begin{array} {ll} a_l,x\le t_l\\ 1,t_l<x<t_r\\ a_r,x\ge t_r \end{array}\right. ftl,al,tr,ar(x)=tl+al(xtl),xtlx,tl<x<trtr+ar(xtr),xtrtl,al,tr,arftl,al,tr,ar(x)=al,xtl1,tl<x<trar,xtr
在这里插入图片描述

15、反平方根线性函数(ISRLU)

f ( x ) = { x 1 + α x 2 , x < 0 x , x ≥ 0 f ′ ( x ) = { ( 1 1 + α x 2 ) 3 , x < 0 1 , x ≥ 0 f(x)= \left\{\begin{array}{ll}\frac{x}{\sqrt{1+\alpha x^2}},x<0\\x,x\ge 0 \end{array}\right.\qquad\qquad f^{'}(x)=\left\{\begin{array}{ll}(\frac{1}{\sqrt{1+\alpha x^2}})^3,x<0\\1,x\ge 0 \end{array}\right. f(x)={1+αx2 x,x<0x,x0f(x)={(1+αx2 1)3,x<01,x0
在这里插入图片描述
在这里插入图片描述

16、自适应分段线性函数(APL)

f ( x ) = m a x ( 0 , x ) + ∑ s = 1 S a i s m a x ( 0 , − x + b i s ) f ′ ( x ) = H ( x ) − ∑ s = 1 S a i s H ( − x + b i s ) f(x)=max(0,x)+\sum_{s=1}^{S}a^s_{i}max(0,-x+b^s_i)\qquad\qquad f^{'}(x)=H(x)-\sum^{S}_{s=1}a^s_iH(-x+b^s_i) f(x)=max(0,x)+s=1Saismax(0,x+bis)f(x)=H(x)s=1SaisH(x+bis)

17、SoftPlus函数

f ( x ) = ln ⁡ ( 1 + e x ) f ′ ( x ) = e x 1 + e x f(x)=\ln(1+e^x) \qquad\qquad f^{'}(x)=\frac{e^x}{1+e^x} f(x)=ln(1+ex)f(x)=1+exex
在这里插入图片描述

18、弯曲恒等函数

f ( x ) = x 2 + 1 − 1 2 + x f ′ ( x ) = x 2 x 2 + 1 + 1 f(x)=\frac{\sqrt{x^2+1}-1}{2}+x\qquad\qquad f^{'}(x)=\frac{x}{2\sqrt{x^2+1}}+1 f(x)=2x2+1 1+xf(x)=2x2+1 x+1
在这里插入图片描述
在这里插入图片描述

19、Sigmoid Weighted Liner Unit(SiLU)

f ( x ) = x ⋅ σ ( x ) f ′ ( x ) = f ( x ) + σ ( x ) ( 1 − f ( x ) ) f(x)=x\cdot \sigma(x) \qquad\qquad f^{'}(x)=f(x)+\sigma(x)(1-f(x)) f(x)=xσ(x)f(x)=f(x)+σ(x)(1f(x))
在这里插入图片描述
在这里插入图片描述

20、SoftExponential

f ( x ) = { − l n ( 1 − α ( x + α ) ) α , α < 0 x , α = 0 e α x − 1 α , α > 0 f ′ ( x ) = { 1 1 − α ( α + x ) , α < 0 e α x , α ≥ 0 f(x)= \left\{\begin{array} {ll} -\frac{ln(1-\alpha(x+\alpha))}{\alpha}, \alpha < 0\\ x,\alpha=0\\ \frac{e^{\alpha x}-1}{\alpha},\alpha >0 \end{array}\right. \qquad\qquad f^{'}(x)=\left\{\begin{array} {ll} \frac{1}{1-\alpha(\alpha+x)},\alpha < 0\\ e^{\alpha x},\alpha \ge 0 \end{array}\right. f(x)=αln(1α(x+α)),α<0x,α=0αeαx1,α>0f(x)={1α(α+x)1,α<0eαx,α0
在这里插入图片描述
在这里插入图片描述

21、正弦函数

f ( x ) = s i n ( x ) f ′ ( x ) = c o s ( x ) f(x)= sin(x)\qquad\qquad f^{'}(x)=cos(x) f(x)=sin(x)f(x)=cos(x)
在这里插入图片描述
在这里插入图片描述

22、Sinc函数

f ( x ) = { 1 , x = 0 s i n ( x ) x , x ≠ 0 f ( x ) = { 0 , x = 0 c o s ( x ) x − s i n ( x ) x , x ≠ 0 f(x)=\left\{\begin{array} {ll} 1,x=0 \\ \frac{sin(x)}{x},x\ne 0 \end{array}\right.\qquad \qquad f(x)=\left\{\begin{array} {ll} 0,x=0 \\ \frac{cos(x)}{x}-\frac{sin(x)}{x},x\ne 0 \end{array}\right. f(x)={1,x=0xsin(x),x=0f(x)={0,x=0xcos(x)xsin(x),x=0
在这里插入图片描述
在这里插入图片描述

23、高斯函数

f ( x ) = e − x 2 f ′ ( x ) = − 2 x e − x 2 f(x)=e^{-x^2} \qquad\qquad f^{'}(x)=-2xe^{-x^2} f(x)=ex2f(x)=2xex2
在这里插入图片描述
在这里插入图片描述


http://chatgpt.dhexx.cn/article/G68hFGK5.shtml

相关文章

各种激活函数

激活函数可以分为两大类 &#xff1a; 饱和激活函数&#xff1a; sigmoid、 tanh非饱和激活函数: ReLU 、Leaky Relu 、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】 相对于饱和激活函数&#xff0c;使用“非饱和激活函数”的优势在于两点&#xff1a; …

PyTorch教程(5)激活函数

问题 激活函数是什么?它们在实际项目中是如何工作的?如何使用PyTorch实现激活函数? 解答 激活函数是一个数学公式&#xff0c;它根据数学转换函数的类型将二进制、浮点或整数格式的向量转换为另一种格式。神经元存在于不同的层——输入层、隐藏层和输出层&#xff0c;它们…

swish激活函数

激活函数提出论文&#xff1a; swish f(x)x⋅sigmoid(βx) β是个常数或可训练的参数.Swish 具备无上界有下界、平滑、非单调的特性。 Swish 在深层模型上的效果优于 ReLU。例如&#xff0c;仅仅使用 Swish 单元替换 ReLU 就能把 Mobile NASNetA 在 ImageNet 上的 top-1 分类…

几种常用的激活函数

1. 激活函数 如下图&#xff0c;在神经元中&#xff0c;输入的 inputs 通过加权&#xff0c;求和后&#xff0c;还被作用了一个函数&#xff0c;这个函数就是激活函数 Activation Function。 1.1 激活函数的作用&#xff1a; 如果不用激活函数&#xff0c;每一层输出都是上层…

激活函数作用

激活函数作用&#xff1a; 将权值结果转化成分类结果。常用于 逻辑回归(Logistic Regression)神经网络(Neural Network) 这两处&#xff0c;激活函数都用于计算一个线性函数的结果。 sigmoid函数 &#xff1a; 在机器学习中可用在分类问题上&#xff0c;如逻辑回归模型分类器…

tensorflow中常用的激活函数

激活函数(activation function)运行时激活神经网络中某一部分神经元&#xff0c;将激活神经元的信息输入到下一层神经网络中。神经网络之所以能处理非线性问题&#xff0c;这归功于激活函数的非线性表达能力。激活函数需要满足数据的输入和输出都是可微的&#xff0c;因为在进行…

激活函数简介

1、什么是激活函数&#xff1f; 单一神经元模型展示&#xff1a; 神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值&#xff0c;并将输入值传入下一层&#xff0c;输入层神经元节点会将属性值直接传递给下一层&#xff08;隐层或输出层&#xff09;。…

激活函数maxout

激活函数maxout 系列文章:maxout函数相对于其他的激活函数有很大的区别,可以看做是在神经网络中激活函数的地方加入一个激活函数层。 maxout可以看做是一个可学习的分段线性函数,因为可学习所以是需要参数的,而且参数是可以通过反向传播来学习的。因为参数量的增大,势必导…

激活函数总结

一、引入激活函数的目的 图1&#xff1a;带一层隐藏层的神经网络 先看一个只含一层隐藏层的神经网络&#xff0c;如图1所示。输入为 n 条样本X&#xff0c;隐藏层H的权重和偏置分别为W_h&#xff0c;b_o&#xff0c;输出层O的权重和偏置分别为W_o&#xff0c;b_o。输出层的计算…

机器学习(14)——激活函数

文章目录 1 定义2 激活函数的必要性3 常用的激活函数3.1 单位阶跃函数3.2 Logistic函数3.3 Tanh函数3.4 ReLU函数3.5 LeakyReLU函数3.6 Softmax函数 4 选择恰当的激活函数 1 定义 激活函数 (Activation functions) 对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说…

GELU激活函数

最近看bert论文&#xff0c;发现用的是GELU激活函数&#xff0c;找出来看看 论文&#xff1a;GAUSSIAN ERROR LINEAR UNITS (GELUS)项目&#xff1a;https://github.com/hendrycks/GELUs ABSTRACT 本文提出了高斯误差线性单元(GELU)&#xff0c;一个高性能的神经网络激活函数…

神经网络中的激活函数

文章目录 引言什么是激活函数&#xff1f;为什么我们要在神经网络中使用激活函数&#xff1f;线性激活函数非线性激活函数1. Sigmoid&#xff08;逻辑激活函数&#xff09;2. Tanh&#xff08;双曲正切激活函数&#xff09;3. ReLU&#xff08;线性整流单元&#xff09;激活函数…

激活函数简述

1、激活函数的作用 1.不带激活函数的单层感知机是一个线性分类器&#xff0c;不能解决线性不可分的问题 2.合并后的多个感知器本质上还是一个线性分类器&#xff0c;还是解决不了非线性的问题 3.激活函数是用来加入非线性因素的&#xff0c;提高神经网络对模型的表达能力&a…

常用激活函数

文章目录 前言为什么需要激活函数什么样的函数可以做激活函数什么样的函数是好的激活函数常用激活函数sigmoidtanhReLULeaky ReLURandomized Leaky ReLUMaxout 参考文章 前言 今天这篇文章对一些常用激活函数做一下总结吧。在神经网络中激活函数还是很重要的&#xff0c;并且熟…

激活函数

深度学习中的激活函数导引 我爱机器学习(52ml.net) 2016年8月29日 0 作者&#xff1a;程程 链接&#xff1a;https://zhuanlan.zhihu.com/p/22142013 来源&#xff1a;知乎 著作权归作者所有&#xff0c;已联系作者获得转载许可。 深度学习大讲堂致力于推送人工智能&#xff0c…

详解激活函数

文章目录 0️⃣前言1️⃣Sigmoid2️⃣tanh3️⃣Relu4️⃣Leaky Relu5️⃣Softmax6️⃣总结 0️⃣前言 用了这么久的激活函数&#xff0c;抽空总结一下吧&#xff0c;不然总是忘记&#xff0c;这里介绍常用到的sigmoid&#xff0c;tanh&#xff0c;relu&#xff0c;leaky relu&…

常用激活函数(激励函数)理解与总结

引言 学习神经网络的时候我们总是听到激活函数这个词&#xff0c;而且很多资料都会提到常用的激活函数&#xff0c;比如Sigmoid函数、tanh函数、Relu函数。那么我们就来详细了解下激活函数方方面面的知识。本文的内容包括几个部分&#xff1a; 什么是激活函数&#xff1f;激活…

常用激活函数总结(深度学习)

前言   学习神经网络的时候我们总是听到激活函数这个词&#xff0c;而且很多资料都会提到常用的激活函数&#xff0c;比如Sigmoid函数、tanh函数、Relu函数。在经过一段时间学习后&#xff0c;决定记录个人学习笔记。 一、激活函数 1.激活函数定义&#xff1f;   在神经网…

【概念梳理】激活函数

一、引言 常用的激活函数如下&#xff1a; 1、Sigmoid函数 2、Tanh函数 3、ReLU函数 4、ELU函数 5、PReLU函数 6、Leaky ReLU函数 7、Maxout函数 8、Mish函数 二、激活函数的定义 多层神经网络中&#xff0c;上层节点的输出和下层节点的输入之间具有一个函数关系&#xff0c;…

一文搞懂激活函数

目录 1、什么是激活函数 2、激活函数的用途&#xff08;为什么需要激活函数&#xff09;&#xff1f; 3、常见的激活函数介绍 3.1 Sigmoid函数 3.2 tanh函数 3.3.RelU函数 3.4 Leaky ReLU函数 和 PReLU 函数 --- ReLU 变体的提出 3.5 ELU (Exponential Linear Units) 函…