智能计算:人工神经网络(ANN)

article/2025/10/24 5:29:49

2022/5/25

文章目录

  • 神经网络
    • 一、神经网络基本简介
    • 二、神将网络的典型结构
    • 三、神经网络的学习算法
    • 四、BP神经网络

神经网络

人类的大脑是如何工作的呢?

在计算机上能模仿大脑的工作原理吗?


人工神经网络(Artificial Neural Network,ANN):借助数学和物理建模,对人脑神经网络进行抽象后建立的简化模型。

一、神经网络基本简介

1、基本原理

神经网络(NN),也称作人工神经网络(ANN),是对人脑神经网络进行抽象后建立的简化模型。

生物学基础:生物界中,神经系统的基本单元是神经元,神经元由细胞体和突组成,突分为两部分,即轴突和树突

image-20220525100928587

:突出的部分,一般很短,用于与其他神经元的轴突相连,以接受来自其他神经元的生物信号。

轴突的末端与树突进行信号传递的界面称作突触,通过突触向其他神经元发送信息。对某些突触的刺激促使神经元触发

只有神经元所有输入总效应达到阈值电平,它才开始工作,即被触发。


人工神经网络ANN是模拟神经元组成的,可把ANN看作是以处理单元为节点,用加权有向弧相互连接的有向图。

ANN用权和乘法模拟突触特性,用加法模拟树突的互连作用

image-20220525101004232

image-20220525101010851

二、神将网络的典型结构

image-20220525101216517

1、单层感知器网络

image-20220525101326179

单层感知器是最原始、最基本的神经网络结构,由一个或多个线性阈值结构单元组成。单层感知器是很多其他网络结构的基本单元。

几种常见的激活函数

image-20220525101904058

c是Sigmoid函数,表达式:

image-20220525101948413

2、前馈型网络

image-20220525102053807

前馈型网络的信号由输入层到输出层单向传输,每层的神经元仅与前一层的神经元相连,仅接受来自前一层传输来的信息。

每一层的神经元之间没有横向的信息传输。

每一个神经元受前一层全部神经元的控制,控制能力由连接的权重决定。

3、前馈内层互联网络

image-20220525103601231

外部看还是一个前馈型的网络。

内部有一些节点在层内互连。

同层之间神经元的互相连接是自组织竞争网络的特征之一,神经元之间的激励和压抑是竞争的手段。

4、反馈型网络

image-20220525103525850

输入输出之间建立了一种关系,输出层存在一个反馈回路到输入层的一个输入,而网络本身还是前馈型。

输入层不仅接受外界的输入信号,同时接受网络自身的输出信号

输出信号可以是原始输出信号,也可以是经过转化的输出信号;可以是本时刻的输出信号,也可以是经过一定延迟的输出信号。

常应用于系统控制、实时信号处理等需要根据当前状态进行调节的场合。

5、全互联网络

image-20220525105121891

该网络中所有的神经元之间都有相互连接。

三、神经网络的学习算法

设计出来的神经网络需要一个学习训练的过程。

目的是不断地调整和修正网络的参数。

image-20220525105234351

1、学习方法

监督:即训练数据本身,不但包括输入数据还包括一定输入条件下的输出数据。

有监督学习:网络的输出和期望的输出(即监督信号)进行比较,也就是实际输出和应有输出进行比较,然后根据两者之间的差异调整网络的权重,使最终网络差异值变小

在训练过程中,每输入一组数据的同时也告诉网络应该输出的是什么。

误差达到了允许范围内,则不再调整权重,网络可以去用新的数据进行验证。


无监督学习:输入模式进入网络后,网络按照一定预先设计的规则(如竞争规则)自动调整权重,使网络最终具有模式分类的功能。

训练数据有输入而没有输出。


再励学习是介于以上两者之间的学习方法。


2、学习规则

  • Hebb学习规则

    如果处理单元从另一个处理单元接受到一个输入,并且两个如果都处于高度活跃状态,这两个单元之间的连接权重就应该被加强。

    该学习规则是无监督学习,只根据神经元连接间的激活水平改变权重,因此又称为相关学习和并联学习。

  • Delta学习规则

    改变单元间的连接权重来减小系统实际输出与应有的输出之间的误差。

    该学习规则实现了梯度下降减少误差,因此使误差函数达到最小值,但该学习规则只适用于线性可分函数,无法用于多层网络。

  • 梯度下降学习规则

    在学习过程中,保持误差曲线的梯度下降。误差曲线可能会出现局部的最小值,应尽可能摆脱局部最小值,达到真正误差最小值。

  • Kohonen学习规则

    无监督学习。

    在学习过程中,处理单元竞争学习时,具有高输出的单元是胜利者,胜利者有能力阻止其他竞争者并激发相邻单元。

  • 后向传播学习规则

    应用最广泛。

    两步:

    1. 正反馈,当输入数据输入网络,网络从前往后计算出每个单元的输出,将每个单元的输出与期望的输出进行比较,计算误差。
    2. 向后传播,从后向前重新计算误差,并修改权重。

    完成这两步后才能输入新的数据。

  • 概率式学习规则

    神经网络处于某一状态的概率取决于在此状态下的能量,能量越低概率越大。同时,概率还取决于温度参数T,T越大,不同状态出现概率的差异变越小,越容易跳出能量的局部极小点,到达全局最小点。

  • 竞争式学习规则

    无监督学习。

    利用不同层间的神经元发生兴奋性连接以及同一层内距离很近的神经元间发生同样的兴奋性连接,而距离较远的神经元产生抑制性连接。

四、BP神经网络

1、基本思想

后向传播学习的前馈型神经网络(BPNN)

后向传播是一种学习算法该过程需要监督学习,前馈型网络是一种网络架构。

神经网络在实际应用中分为训练阶段和使用阶段。

2、算法流程
image-20220525115336668
step1:初始化网络权重
在这里插入图片描述
step2:向前传播输入(前馈型网络)
在这里插入图片描述
在这里插入图片描述
step3:反向误差传播
在这里插入图片描述
step4:网络权重与神经元偏置调整
在这里插入图片描述
step5:判断结束
在这里插入图片描述
3、应用举例
在这里插入图片描述
在这里插入图片描述


http://chatgpt.dhexx.cn/article/5vlYuxjg.shtml

相关文章

人工神经网络的应用实例,人工神经网络算法实例

神经网络算法实例说明有哪些? 在网络模型与算法研究的基础上,利用人工神经网络组成实际的应用系统,例如,完成某种信号处理或模式识别的功能、构作专家系统、制成机器人、复杂系统控制等等。 纵观当代新兴科学技术的发展历史&…

人工神经网络概念及组成,人工神经网络基本结构

1、简述人工神经网络的结构形式 神经网络有多种分类方式,例如,按网络性能可分为连续型与离散型网络,确定型与随机型网络:按网络拓扑结构可分为前向神经网络与反馈神经网络。本章土要简介前向神经网络、反馈神经网络和自组织特征映射神经网络…

C语言实现矩阵卷积运算

直观的说卷积操作可以理解为——每次透过一个较小的“窗口”去覆盖被输入进来的大窗口中的某一部分所得出的结果。每次得出结果后小窗口就会根据步长滑动至下一个位置并重复这一计算过程,最终得到卷积后的输出矩阵结果。 卷积的计算过程可由下图直观说明。 必须注…

卷积神经网络互相关运算和卷积运算原理

卷积神经网络用的其实不是卷积运算,实际用的是互相关运算;互相关运算和卷积运算的区别在于对输入结果所加的权重系数的顺序不同而已,但由于神经网络本身就是训练参数的,所以两者的输出结果其实是一样的,而互相关运算相…

全网最全的卷积运算过程

卷积运算 1.卷积核的通道(也叫滤波器)的个数得与被卷积的图片通道数相同 eg:输入图片是102410243,即通道数为3,那么每个卷积核得有3个通道 2.卷积核做的是线性运算,核上的每个值与它滑动到的对应位置上的值相乘&…

多维卷积运算

多维卷积运算 如果输入的图片是灰度图,每个像素点的值是一个整数,只需使用2D卷积运算。 但如果输入的图片是彩色的,每个像素点的值是1个由3个整数组成的组,例如(R,G,B)(155,23,222). 对于这样多维的输入图片,需要使用…

信号与系统 - 卷积运算

信号的时域分解 卷积积分 卷积定义 卷积积分的图解法 举例1 举例2 总结 卷积的性质 交换律 分配律 结合律 奇异函数的卷积性质 普通函数与冲激函数的卷积 普通函数与阶跃函数的卷积 普通函数和冲击偶函数卷积 举例 卷积的微积分分特性 卷积的微分特性 卷积的积分特性 卷积的…

【15】opencv卷积运算

参考: 【OpenCV学习笔记】之卷积及卷积算子(convolution)_点滴成海~的博客-CSDN博客_卷积算子(关于卷积运算) opencv RNG函数 - 0MrMKG - 博客园(对于RNG函数的解答) (一&#xf…

机器学习4:卷积运算简介

机器学习4:卷积运算简介【旧笔记整理】 (1)卷积运算简介: 卷积即在卷积核滑动过程中,矩阵与卷积核对应位置的数据相乘最后乘积求和的计算过程。 (2)卷积运算的特性: ①稀疏连接&…

【OpenCV 例程200篇】52. 图像的相关与卷积运算

【OpenCV 例程200篇】52. 图像的相关与卷积运算 欢迎关注 『OpenCV 例程200篇』 系列,持续更新中 欢迎关注 『Python小白的OpenCV学习课』 系列,持续更新中 滤波通常是指对图像中特定频率的分量进行过滤或抑制。图像滤波是在尽可能保留图像细节特征的条件…

Python遥感图像处理应用篇(五):python如何使用numpy对遥感图像做卷积运算

本篇接着上一篇(Python遥感图像处理应用篇(四):python如何使用numpy读取遥感图像光谱值)继续深入,对遥感图像做卷积运算处理 1.基本思路 1.1 设置卷积核 这里就用3*3大小的卷积核吧,可以根据需求任意设置卷积核数据达到图像均衡化、锐化、边缘增强等不同效果。 1.2 中心…

求助:MATLAB中实现卷积运算和理论分析中的卷积运算有什么区别?

MATLAB中实现卷积运算和理论分析中的卷积运算有什么区别。 欢迎使用Markdown编辑器 你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。 新的改变 …

通过具体的例子说明一维和二维的相关运算、卷积运算究竟是怎么做的。

在图像处理中,大量的算法中用到的运算其实都是相关运算和卷积运算。 所以,我们很有必要知道相关运算、卷积运算究竟是怎么做的。 本篇博文通过具体而简单的例子向大家说明相关运算、卷积运算究竟是怎么做的。 01-一维相关运算 下图显示了一维序列n与窗口…

卷积运算与互相关运算

在卷积神经网络中,虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使用更加直观的互相关运算(cross-correlation)运算。 卷积运算与互相关运算的联系 卷积运算与互相关运算类似。为了得到卷积运算的输出,只需将核数组左右翻转…

卷积运算(CNN卷积神经网络)

文章目录 图像卷积互相关运算卷积层图像中目标的边缘检测学习卷积核小结 图像卷积 最近学习到了卷积深度网络,有些本质概念太深暂时还没有理解透彻,现在主要记录下卷积神经网络中的一些计算。 以下介绍与计算均出自李沐老师的《动手学深度学习》&#…

java 怎么做卷积运算,入门教程之算法系列(二):卷积运算与模糊操作

卷积在信号处理领域有极其广泛的应用,也有严格的物理和数学定义。 OpenCV中对图像进行模糊操作,其背后的原理就是卷积运算,可是究竟卷积运算是什么,模糊的卷积算法又是如何实现的呢?本文将进行讨论。考虑到大部分读者的非专业性,本人将尽量不使用专业术语,而使用通俗易懂…

python实现卷积运算

一、卷积定义与朴素计算方法: 图1 卷积定义与计算方法 二、 Python代码实现 结合伪代码实现python代码如下(因为我是先写的代码,后才发现上面的伪代码,所以循环次序略有不同): import torch.nn as nn im…

卷积运算

卷积层 卷积的本质是用卷积核的参数来提取数据的特征,通过矩阵点乘运算与求和运算来得到结果。 下面给出一个基本的二维卷积的运算过程,即 y ω x b y \omega x b yωxb 特征图 ( x x x) 的大小为 1 x 5 x 5, 输入的通道数为 1.卷积核 ( ω \omeg…

深入浅出理解卷积运算

提起卷积运算相信大家都不陌生,这是一种很常见的运算。我们在学习《信号与系统》时就一直在和卷积打交道,在后来的一些课程中也有卷积运算的身影,比如《自动控制原理现代部分》中的卷积定理等。 在学习《信号与系统》时我们知道了卷积的定义&…

卷积计算——1. 关于卷积的基本概念

文章目录 卷积的基本概念卷积运算公式交换律分配律结合律数乘结合律 卷积核代码的基本框架 卷积的基本概念 卷积,是一个强有力的数学工具,在计算机领域中有很多非常不错的运用,能产生很多意想不到的效果和输出。 数学上,其连续函…