人工神经网络简介

article/2025/10/24 2:45:27

1. 人工神经网络的概念

人工神经网络(Artificial Neural Network,ANN)简称神经网络(Neural Network)或类神经网络,是一种模仿生物神经网络的结构和功能的数学模型,用于对函数进行估计或近似。

和其他机器学习一样,神经网络已被用于解决各种问题,例如机器视觉和语音识别,这些问题用传统的编程都是难以解决的。

2. 神经元的概念

在生物神经网络中,每个神经元与其他神经元相连,当它 “兴奋” 时,就会向相连的神经元发送化学物质,从而改变这些神经元内的电位;如果某神经元的电位超过了 “阈值”, 那么它就会被激活,即 “兴奋” 起来,并向其他神经元发送化学物质。

1943年,McCulloch 和 Pitts 将上述情形抽象为上图所示的简单模型,这就是一直沿用至今的 M-P 神经元模型。把许多这样的神经元按一定的层次结构连接起来,就得到了神经网络。

一个简单的神经元模型:

其中,

  1. a1、a2 ... an 为各个输入的分量
  2. w1、w2 ... wn为各个分量对应的权重
  3. b 为偏置
  4. f 为激活函数,常见的激活函数有 tanh、sigmoid、relu
  5. t 为神经元的输出

使用数学公司拟表示:

t=f(W^{T}A+b)

由此可见,一个神经元的作用为就是:计算输入向量和权重向量的内积,经过一个非线性传递函数得到一个标量。

3. 单层神经网络

最基本的神经元网络形式,由有限个神经元构成,所有神经元的输入向量都是同一个向量,由于每个神经元都会产生一个标量结果,所以单层神经元输出的都是一个向量,向量的维数等于神经元的个数。

单层神经网络示意图:

4. 感知机

感知机由两层神经网络组成,输入层接收外界输入信号后传递给输出层(输出 +1 正例,-1 反例),输出层是 M-P 神经元。

感知机能把一个 n 维向量空间用一个超平面分割成两部分,给定一个输入向量,超平面可以判断出这个向量位于超平面的哪一边,得到输入时正类或者是反类,对应到 2 维空间就是一条直线把一个平面分为两个部分。

5. 多层神经网络

多层神经网络就是由单层神经网络进行叠加之后得到的,所以就形成了层的概念,常见的多层神经网络有如下结构:

1)输入层(Input layer),众多神经元(Neuron)接受大量非线形输入消息。输入的消息称为输入向量。

2)输出层(Output layer),消息在神经元链接中传输、分析、权衡,形成输出结果。输出的消息称为输出向量。

3)隐藏层(Hidden layer),简称 “隐层”,是输入层和输出层之间众多神经元和链接组成的各个层面。隐层可以有一层或多层。隐层的节点(神经元)数目不定,但数目越多神经网络的非线性越显著,从而神经网络的强健性(robustness)更显著。

4)全连接层,当前一层和前一层每个神经元相互链接,所谓的全连接层就是在前一层的基础上进行一次 Y=Wx+b 的变化(不考虑激活函数)。

6. 激活函数

不管是单层还是多层神经网络,都只能线性地划分数据,此时,我们如果在感知机的基础上加上非线性激活函数,输出的结果就不再一条直线上了。

激活函数可以增加模型的非线性分割能力。

常见的激活函数有:

1)Sigmoid: \sigma \left ( x \right )=\frac{1}{1+e^{-x}}

2)tanh:tanh(x)

3)ReLu:max(0, x)

4)Leaky ReLu:max(0.1x, x)

5)Maxout:max(w_{1}^{T}x+b1, w_{2}^{T}+b2)

6)ELU:\begin{cases} x & \text{ if } x>=0 \\ \alpha (e^{x}-1) & \text{ if } x<0 \end{cases}

注:

  • sigmoid 只会输出正数,以及靠近的输出变化率最大
  • tanh 和 sigmoid不同的是,tanh 输出可以是负数
  • Relu 是输入只能大于0,如果你输入含有负数,Relu 就不适合,如果你的输入是图片格式,Relu就挺常用的,因为图片的像素值作为输入时取值为[0,255]。

激活函数的作用除了前面说的增加模型的非线性分割能力外,还有:提高模型鲁棒性、缓解梯度消失问题、加速模型收敛等。


http://chatgpt.dhexx.cn/article/pY1lOxpn.shtml

相关文章

人工神经网络概念及组成,人工神经网络基本概念

1、什么是BP神经网络&#xff1f; BP算法的基本思想是&#xff1a;学习过程由信号正向传播与误差的反向回传两个部分组成&#xff1b;正向传播时&#xff0c;输入样本从输入层传入&#xff0c;经各隐层依次逐层处理&#xff0c;传向输出层&#xff0c;若输出层输出与期望不符&…

智能计算:人工神经网络(ANN)

2022/5/25 文章目录 神经网络一、神经网络基本简介二、神将网络的典型结构三、神经网络的学习算法四、BP神经网络 神经网络 人类的大脑是如何工作的呢&#xff1f; 在计算机上能模仿大脑的工作原理吗&#xff1f; 人工神经网络&#xff08;Artificial Neural Network&#xf…

人工神经网络的应用实例,人工神经网络算法实例

神经网络算法实例说明有哪些&#xff1f; 在网络模型与算法研究的基础上&#xff0c;利用人工神经网络组成实际的应用系统&#xff0c;例如&#xff0c;完成某种信号处理或模式识别的功能、构作专家系统、制成机器人、复杂系统控制等等。 纵观当代新兴科学技术的发展历史&…

人工神经网络概念及组成,人工神经网络基本结构

1、简述人工神经网络的结构形式 神经网络有多种分类方式&#xff0c;例如&#xff0c;按网络性能可分为连续型与离散型网络&#xff0c;确定型与随机型网络:按网络拓扑结构可分为前向神经网络与反馈神经网络。本章土要简介前向神经网络、反馈神经网络和自组织特征映射神经网络…

C语言实现矩阵卷积运算

直观的说卷积操作可以理解为——每次透过一个较小的“窗口”去覆盖被输入进来的大窗口中的某一部分所得出的结果。每次得出结果后小窗口就会根据步长滑动至下一个位置并重复这一计算过程&#xff0c;最终得到卷积后的输出矩阵结果。 卷积的计算过程可由下图直观说明。 必须注…

卷积神经网络互相关运算和卷积运算原理

卷积神经网络用的其实不是卷积运算&#xff0c;实际用的是互相关运算&#xff1b;互相关运算和卷积运算的区别在于对输入结果所加的权重系数的顺序不同而已&#xff0c;但由于神经网络本身就是训练参数的&#xff0c;所以两者的输出结果其实是一样的&#xff0c;而互相关运算相…

全网最全的卷积运算过程

卷积运算 1.卷积核的通道&#xff08;也叫滤波器&#xff09;的个数得与被卷积的图片通道数相同 eg:输入图片是102410243&#xff0c;即通道数为3&#xff0c;那么每个卷积核得有3个通道 2.卷积核做的是线性运算&#xff0c;核上的每个值与它滑动到的对应位置上的值相乘&…

多维卷积运算

多维卷积运算 如果输入的图片是灰度图&#xff0c;每个像素点的值是一个整数&#xff0c;只需使用2D卷积运算。 但如果输入的图片是彩色的&#xff0c;每个像素点的值是1个由3个整数组成的组&#xff0c;例如(R,G,B)(155,23,222). 对于这样多维的输入图片&#xff0c;需要使用…

信号与系统 - 卷积运算

信号的时域分解 卷积积分 卷积定义 卷积积分的图解法 举例1 举例2 总结 卷积的性质 交换律 分配律 结合律 奇异函数的卷积性质 普通函数与冲激函数的卷积 普通函数与阶跃函数的卷积 普通函数和冲击偶函数卷积 举例 卷积的微积分分特性 卷积的微分特性 卷积的积分特性 卷积的…

【15】opencv卷积运算

参考&#xff1a; 【OpenCV学习笔记】之卷积及卷积算子&#xff08;convolution&#xff09;_点滴成海~的博客-CSDN博客_卷积算子&#xff08;关于卷积运算&#xff09; opencv RNG函数 - 0MrMKG - 博客园&#xff08;对于RNG函数的解答&#xff09; &#xff08;一&#xf…

机器学习4:卷积运算简介

机器学习4&#xff1a;卷积运算简介【旧笔记整理】 &#xff08;1&#xff09;卷积运算简介&#xff1a; 卷积即在卷积核滑动过程中&#xff0c;矩阵与卷积核对应位置的数据相乘最后乘积求和的计算过程。 &#xff08;2&#xff09;卷积运算的特性&#xff1a; ①稀疏连接&…

【OpenCV 例程200篇】52. 图像的相关与卷积运算

【OpenCV 例程200篇】52. 图像的相关与卷积运算 欢迎关注 『OpenCV 例程200篇』 系列&#xff0c;持续更新中 欢迎关注 『Python小白的OpenCV学习课』 系列&#xff0c;持续更新中 滤波通常是指对图像中特定频率的分量进行过滤或抑制。图像滤波是在尽可能保留图像细节特征的条件…

Python遥感图像处理应用篇(五):python如何使用numpy对遥感图像做卷积运算

本篇接着上一篇(Python遥感图像处理应用篇(四):python如何使用numpy读取遥感图像光谱值)继续深入,对遥感图像做卷积运算处理 1.基本思路 1.1 设置卷积核 这里就用3*3大小的卷积核吧,可以根据需求任意设置卷积核数据达到图像均衡化、锐化、边缘增强等不同效果。 1.2 中心…

求助:MATLAB中实现卷积运算和理论分析中的卷积运算有什么区别?

MATLAB中实现卷积运算和理论分析中的卷积运算有什么区别。 欢迎使用Markdown编辑器 你好&#xff01; 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章&#xff0c;了解一下Markdown的基本语法知识。 新的改变 …

通过具体的例子说明一维和二维的相关运算、卷积运算究竟是怎么做的。

在图像处理中&#xff0c;大量的算法中用到的运算其实都是相关运算和卷积运算。 所以&#xff0c;我们很有必要知道相关运算、卷积运算究竟是怎么做的。 本篇博文通过具体而简单的例子向大家说明相关运算、卷积运算究竟是怎么做的。 01-一维相关运算 下图显示了一维序列n与窗口…

卷积运算与互相关运算

在卷积神经网络中&#xff0c;虽然卷积层得名于卷积(convolution)运算&#xff0c;但我们通常在卷积层中使用更加直观的互相关运算(cross-correlation)运算。 卷积运算与互相关运算的联系 卷积运算与互相关运算类似。为了得到卷积运算的输出&#xff0c;只需将核数组左右翻转…

卷积运算(CNN卷积神经网络)

文章目录 图像卷积互相关运算卷积层图像中目标的边缘检测学习卷积核小结 图像卷积 最近学习到了卷积深度网络&#xff0c;有些本质概念太深暂时还没有理解透彻&#xff0c;现在主要记录下卷积神经网络中的一些计算。 以下介绍与计算均出自李沐老师的《动手学深度学习》&#…

java 怎么做卷积运算,入门教程之算法系列(二):卷积运算与模糊操作

卷积在信号处理领域有极其广泛的应用,也有严格的物理和数学定义。 OpenCV中对图像进行模糊操作,其背后的原理就是卷积运算,可是究竟卷积运算是什么,模糊的卷积算法又是如何实现的呢?本文将进行讨论。考虑到大部分读者的非专业性,本人将尽量不使用专业术语,而使用通俗易懂…

python实现卷积运算

一、卷积定义与朴素计算方法&#xff1a; 图1 卷积定义与计算方法 二、 Python代码实现 结合伪代码实现python代码如下&#xff08;因为我是先写的代码&#xff0c;后才发现上面的伪代码&#xff0c;所以循环次序略有不同&#xff09;&#xff1a; import torch.nn as nn im…

卷积运算

卷积层 卷积的本质是用卷积核的参数来提取数据的特征&#xff0c;通过矩阵点乘运算与求和运算来得到结果。 下面给出一个基本的二维卷积的运算过程&#xff0c;即 y ω x b y \omega x b yωxb 特征图 ( x x x) 的大小为 1 x 5 x 5, 输入的通道数为 1.卷积核 ( ω \omeg…