【吴恩达机器学习笔记】七、神经网络

article/2025/9/19 16:21:47

✍个人博客:https://blog.csdn.net/Newin2020?spm=1011.2415.3001.5343
📣专栏定位:为学习吴恩达机器学习视频的同学提供的随堂笔记。
📚专栏简介:在这个专栏,我将整理吴恩达机器学习视频的所有内容的笔记,方便大家参考学习。
💡专栏地址:https://blog.csdn.net/Newin2020/article/details/128125806
📝视频地址:吴恩达机器学习系列课程
❤️如果有收获的话,欢迎点赞👍收藏📁,您的支持就是我创作的最大动力💪

七、神经网络

1. 非线性假设

在前面讨论逻辑回归问题时,我们提到了分类问题,而且可以通过对特征进行多项式展开,让逻辑回归支持非线性的分类问题,但是当特征量非常非常大时,这对计算机性能是一个很大的考验。

举个例子,我们想要区分一幅图像是否是汽车图像,假定图像分辨率为50×50,且每个像素的灰度都为一个特征,那么一副图像的特征维度就高达2500维,进行二次多项式扩展后,特征维度更是达到了约三百多万。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-x8AUiso5-1669768657842)(吴恩达机器学习.assets/image-20211106144546806.png)]

因此,就需要考虑用新的机器学习模型来处理高维特征的非线性分类问题,神经网络是典型的不需要增加特征数目就能完成非线性分类问题的模型。

2. 神经网络

背景

神经网络起源于人们想要模拟人类大脑的想法,但是在80s到90s这段时间,神经网络慢慢淡出人们的视野,在早些年神经网络才重新回归到人们的视野。这是因为随着如今计算机越来越发达,可以支持神经网络这种计算量特别大的算法了。

神经网络就是模仿了大脑的神经元或神经网络,就像下面的图中一样,从树突输入信息,然后处理后从轴突输出信息。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ASX1sVz5-1669768657845)(吴恩达机器学习.assets/image-20211106152056254.png)]

下面我们将用一个简单的模型来模仿神经元工作,我们将神经元模仿成逻辑单元。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4Zw44wwP-1669768657848)(吴恩达机器学习.assets/image-20211106152246037.png)]

我们可以输入x1,x2,x3就像从树突输入一样,然后经过计算处理,从类似于轴突一样输出信息,最后计算出h(θ),这种神经元有时候被称为带有simoid(logistic)激活函数的人工神经元。

而神经网络就是由这些神经元来组成的,如下:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pMGiRJ7n-1669768657850)(吴恩达机器学习.assets/image-20211106153047881.png)]

第一层被称为输入层,最后一层被称为输出层,而其他的层就被称为隐藏层,而隐藏层一般都有很多层。

接下来,我将为你介绍一些常用的表达,就用上面这个简单的神经网络为例:

  • ai(j)表示第j层的第i个元素。
  • θ(j)表示第j层到第j+1层的每个相连的权值,就如上面公式中θ10(1)等,通俗讲就是图中的每一条线就有一个权值。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-x9XzjvB2-1669768657852)(吴恩达机器学习.assets/image-20211106153837309.png)]

上面a1(2),a2(2),a3(2)就是代表隐藏层神经元的表达式,hθ(x)就是输出层神经元的表达式,而g(z)函数用的是sigmod函数。

如果神经元第j层有sj个神经元,而第j+1层有sj+1个神经元的话,则θ(j)的维数将是sj+1×(sj+1)。

而上面a中的θx我们就可以用z来表示,如下:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2S4760jk-1669768657857)(吴恩达机器学习.assets/image-20211108162144773.png)]

接下来,我将讲一些例子,让你能够更好的理解神经网络,在此之前我先介绍一下XOR与XNOR。

x1 XOR x2作用是当x1与x2当中只要有一个为1,那么y就为1,反之都为0。

x1 XNOR x2与NOT(x1 XOR x2)意思相同,都是上面那个的对立面即当x1和x2都为1或0时,y为1,反之,y为0。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0dkVtSZj-1669768657859)(吴恩达机器学习.assets/image-20211108170716813.png)]

  • AND函数

    我们通过在输出层额外加一个偏置单元,通过sigmod函数得到AND的功能。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OVIFXdB6-1669768657861)(吴恩达机器学习.assets/image-20211108164926827.png)]

  • OR函数

    与上面AND函数实现相似,都是利用sigmod函数,只是将假设函数内部进行改变。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vDEKTV18-1669768657865)(吴恩达机器学习.assets/image-20211108165226226.png)]

  • NOT函数

    同样利用sigmod函数。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-AdjuC5TP-1669768657866)(吴恩达机器学习.assets/image-20211108165540942.png)]

  • x1 XNOR x2

    这个实现实际上就是将前面提到的三个函数进行了一个整合,结合到一个神经元中。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jrWLKLgi-1669768657868)(吴恩达机器学习.assets/image-20211108170526218.png)]

3. 多元分类

这里我将介绍一个多元分类的例子,输出层有多项。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OXpZRZP8-1669768657869)(吴恩达机器学习.assets/image-20211108172501901.png)]

这里我们就要通过输入训练集,然后得到不同的y值,如下所示:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9xisMazu-1669768657872)(吴恩达机器学习.assets/image-20211108172600695.png)]

4. 代价函数

我先介绍一下这节课要用到的表达方式,如下:

  • L表示的是第几层神经网络。
  • sl表示第l层有多少个神经元。
  • K表示输出层的类别数量。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RkjkwI17-1669768657873)(吴恩达机器学习.assets/image-20211108222638582.png)]

除此之外,我们来谈谈关于神经网络的分类问题,它可以分为二元分类及多元分类两种问题。

  • 二元分类(Binary classification):这种问题输出层只有一个神经元,即直接输出h(θ)的值。
  • 多元分类(Multi-class classification):这个问题只有当分的类别大于等于3即k≥3时才会用到一对多的方法。

下面就是神经网络的代价函数:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pgxanM5h-1669768657875)(吴恩达机器学习.assets/image-20211109170351157.png)]

5. 反向传播算法

接下来要讲的算法是可以用来优化整个神经网络,同时其中所计算的δ也是用来计算上面代价函数中的导数项,首先先来认识一下表达方式:

  • δj(l)表示第l层的第j个神经元。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2DML2TSk-1669768657877)(吴恩达机器学习.assets/image-20211109184259233.png)]

反向传播算法就是从最后一层即输出层进行计算,然后依次往前计算,实际上就是将后面层的误差往前面进行传播,而上面这张图中的例子只是拿一个训练样本举例,当训练样本变得特别多时,我们就要像下面一样这么做:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ta6LF1OY-1669768657879)(吴恩达机器学习.assets/image-20211109185739261.png)]

上面的△就是δ,这其中其实就是进行了循环计算,最后得到Dij(l)用于导数的计算。

为了更好理解反向传播算法,我们先来回顾一下前馈传播算法。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ORLnwCLx-1669768657879)(吴恩达机器学习.assets/image-20211109222916074.png)]

就拿其中一个神经元为例,它就是前面那层的所有神经元加权之后的和。

接下来,再来看看反向传播算法的代价函数,下面给出的是只有一个神经元输出的情况,多个神经元输出的话,前面会考虑到K值。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3eXcCQrr-1669768657880)(吴恩达机器学习.assets/image-20211109223713307.png)]

当我们只考虑一个样例时,就可以令λ等于0,这样就不用考虑正则化了,所以可以删去一些式子。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8B5FZL8x-1669768657882)(吴恩达机器学习.assets/image-20211109223909235.png)]

为了更方便理解,我们可以将这个代价函数看成是方差函数,用于判断实际值与真实值偏差有多大,从而判断准确度是否精确,实际中我们的代价函数一般是包含对数等复杂函数。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qSY3zpP8-1669768657883)(吴恩达机器学习.assets/image-20211109231617048.png)]

再更深入的进行理解一下,反向传播算法所算的δj(l)实际上就是第l层第j个神经元的误差,正规点说可以将它当成对zj(l)求偏导数。

我们也可以在前向传播算法图中去理解反向传播算法,这其实就是前向传播的你过程,就如下图中δ2(2)与δ2(3)的公式,实际上就是将后一层的δ乘以一个权重在求和,而在此偏置单元不算近δ中,当然你也可以另外设置算法将它包含进来。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Kqeykj0P-1669768657884)(吴恩达机器学习.assets/image-20211109232649563.png)]

6. 梯度验证

在进行梯度计算时,尤其是在反向传播中进行梯度计算时,可能会会遇到一些bug,所以我们可以采用一些方法来确保我们的反向传播包括前向传播得出的结果是对的。

首先我们先来看看梯度数值估计的一个例子,如下:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uxhLlMZ1-1669768657885)(吴恩达机器学习.assets/image-20211110131730104.png)]

我们可以去一个非常小的距离来计算曲线上一点的斜率,就能得到θ的偏导数,而其中ε一般去10-4,而图上的左边式子是双侧差分,右边的是单侧差分,而双侧差分的结果更准确,所以我们一般都用双侧差分。

现在,我们再来考虑一下当θ为向量的时候,可以得到下面这一系列的式子。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ANdkzfFU-1669768657887)(吴恩达机器学习.assets/image-20211110132956445.png)]

所以这上面算出来的导数值就可以拿去跟反向传播计算出的导数值进行对比,如果数值相等或者十分接近,就说明反向传播算出的导数值是正确的,就可以将反向传播计算得导数值用在别处。

重点:当你已经用梯度检测方法确认了反向传播得出的导数值是正确时,就不要再用梯度检测了,因为相对于非常高效的反向传播算法,梯度检测的计算量非常大,会使你的程序变得非常的慢。

7. 随机初始化

我们先来考虑一个情况,如果我们将所有θ都初始化为零,那么就会出现无论怎样训练神经网络,得到的结果都会是一样,就如下面所示,所算出来的a或者δ再或者偏导都会相同。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Puqv1xSZ-1669768657888)(吴恩达机器学习.assets/image-20211111103330049.png)]

而上面这种情况就被称为对称权重问题,而解决这个问题的方法就是随机初始化θ。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9ji7KJVw-1669768657889)(吴恩达机器学习.assets/image-20211111103947278.png)]

我们通常会将θ初始化在一个接近于0的范围即[-ε,ε],但这里的ε跟我们上面遇到的ε并不是同一个东西,需要注意。

8. 小结

现在我们先对上面的知识进行一次小结,首先先来回顾一下神经网络框架。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pFUiSmqX-1669768657891)(吴恩达机器学习.assets/image-20211111132041791.png)]

输入层的神经元个数,代表着特征的维度;输出层的神经元个数,代表着类别的数量。

而一般情况下,默认只有一层隐藏层,如果隐藏层大于1,每一层隐藏层的数量默认相同,并且一般隐藏层越多越好。

接下来,再来回顾一下神经网络训练的步骤:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cJGZtePo-1669768657892)(吴恩达机器学习.assets/image-20211111132436645.png)]

  1. 随机初始化权重值θ。
  2. 执行向前传播算法得到所有的hθ(x(i))。
  3. 执行代码去计算代价函数J(θ)。
  4. 执行反向传播算法求得偏导数的值,这里第一次计算一般用循环去遍历每一个样本。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bYfeYmJm-1669768657893)(吴恩达机器学习.assets/image-20211111133254282.png)]

  1. 通过梯度检测确保反向传播得到的偏导数与数值算出的偏导数相近,然后停止使用梯度检测。
  2. 最后,利用梯度下降或者其他高级优化算法和反向传播算出的偏导数一起去找到关于θ的J(θ)的最小值。

另外,神经网络的J(θ)是非凸函数,理论上梯度下降的算法可以找到一个最优解,即使不是全局最优解。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lVYSXxpJ-1669768657894)(吴恩达机器学习.assets/image-20211111201248959.png)]

最后,再来看看这张图,我们通过梯度下降来寻找最优解,如果J(θ)处于最低点,我们可以得到hθ(x(i))是十分接近于y(i)的,如果J(θ)处于最高点,那么hθ(x(i))远离y(i)的。


http://chatgpt.dhexx.cn/article/c9TPZ3Nd.shtml

相关文章

吴恩达机器学习 2022新版

2022吴恩达机器学习 第一周 一. 机器学习的定义二. 机器学习的分类2.1. 监督学习【回归算法】【分类算法】 三. loss function3.1.损失函数公式 四. 梯度下降4.1.梯度下降算法4.2.理解梯度下降4.3.学习率的选择4.5.如何计算导数项? 一. 机器学习的定义 Arthur Samu…

【经典】吴恩达《机器学习》课程

如果要推荐《机器学习》的学习课程,那必然首选吴恩达的《机器学习》课程,无论是国内还是国外,这是最火的机器学习入门课程,没有之一。吴恩达老师用易于理解、逻辑清晰的语言对机器学习算法进行介绍,无数新手正是通过这…

吴恩达机器学习系列课程笔记——第一章:什么是机器学习(Machine Learning)

1.1 欢迎 https://www.bilibili.com/video/BV164411b7dx?p1 第一节主要讲了什么是机器学习,机器学习能做些什么事情。 机器学习是目前信息技术中最激动人心的方向之一。在这门课中,你将学习到这门技术的前沿,并可以自己实现学习机器学习的…

机器学习——吴恩达

机器学习——吴恩达 inductionSupervised learningUnsupervised learning modelexamplehow to workdefine cost functiongradient descent for minimizing the cost functionGradient descent for linear regression Matrix and Vector定义运算multiple feature linear regress…

吴恩达—机器学习的六个核心算法

吴恩达,华裔美国人,是斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任。吴恩达是人工智能和机器学习领域国际上最权威的学者之一。他是百度的前副总裁兼首席科学家,最受欢迎的机器学习在线课程之一的创建者&#xf…

【机器学习】机器学习笔记(吴恩达)

文章目录 中文笔记地址视频地址第1章 引言1.1 欢迎1.2 机器学习是什么1.3 监督学习1.4 无监督学习 第2章2.1 模型展示单变量线性回归 2.2 代价函数2.3-2.4 代价函数理解2.5-2.6 梯度下降算法,梯度下降算法理解 第3章第4章4.2 多元(多变量)梯度…

python编码无法使用turtle库_使用Turtle库教Python

Python是一种流行的基于文本的编程语言,程序员每天都在使用它。使用Turtle库(Turtle Library)教Python可以激发对STEM的兴趣。 Turtle库是用于控制机器人Turtle的功能的集合。这些命令可以与Python结合使用,以构建精美作品和原创游戏的程序。The Turtle …

turtle库的介绍

一、turtle库概述: turtle(海龟)库是turtle绘图体系python的实现; turtle绘图体系:1969年诞生,主要用于程序设计入门; turtle库是python的标准库之一;属于入门级的图形绘制函数库…

python turtle库下载_python3中安装turtle库

开始在网上找资料安装的时候踩了一点坑,来总结一下经验 直接安装 安装 pip install turtle 会提示错误:Command "python setup.py egg_info" failed with error code 1 解决方法 1.直接找到turtle 0.0.2(地址是这个),把turtle…

python基础之 turtle 库总结

python基础之 turtle 库总结 文章目录 python基础之 turtle 库总结1. 准备工作1.1 准备画布1.2 画笔设置 2. 画笔运动函数2.1 向前:forward() | fd()2.2 向后:backward() | bk() | back()2.3 向右:right() | rt()2.4 向左:left() …

turtle库的精讲

大家好,我是Python领域的博主。 如果你是编程爱好者可以小编一起学习,在这里我每天都会发Python的基础知识,以及相关的代码。 如果文章有什么错误的地方,请不吝赐教。 觉得博主文章写的还错的话,请三连支持一下博主哦 …

python turtle库有什么用_turtle库使用简介

python之绘制图形库turtle turtle库是python的基础绘图库,官方手册 这个库被介绍为一个最常用的用来给孩子们介绍编程知识的方法库,其主要是用于程序设计入门,是标准库之一,利用turtle可以制作很多复杂的绘图。 turtle原理理解 turtle名称含义为“海龟”,我们想象一只…

Turtle库实战项目

文章目录 文章目录 文章目录前言直接实战1、turtle库完成正方形螺旋线的绘制2、turtle库完成绘制斜螺旋线3、turtle库完成绘制彩色斜螺旋线4、turtle库完成绘制直角三角形5、turtle库完成绘制梯形7、turtle库完成绘制八一五角星8、turtle库完成绘制冬奥会吉祥物冰墩墩 总结 前言…

Python 之 turtle 库

目录 1、turtle库的调用 2、turtle库的构成 2.1 画布 2.2 画笔(海龟) 2.3 绘图指令 Turtle 库是 Python 的一个标准库,主要用于图像的绘制。想象您用一组组函数驾驭一只小小的乌龟,在无垠的沙滩(画布)上昂…

Python Turtle库详解

turtle的英文意思是“海龟”,今天学习的turtle库也叫作海龟绘图库。想象一下一只小海龟在海面上游泳,海龟游过的轨迹变成了一幅幅有趣的图案。 1. Turtle的绘图窗体布局 美术生作画时必不可少的两样东西:画纸和画笔。画纸在画板上&#xff…

turtle具体详解

一、turtle库概述: turtle(海龟)库是turtle绘图体系python的实现; turtle绘图体系:1969年诞生,主要用于程序设计入门; turtle库是python的标准库之一;属于入门级的图形绘制函数库…

Python入门基础知识(turtle库)

turtle库的概述 turtle(海龟)库是turtle绘图体系的Python实现。 turtle绘图体系:1969年诞生,主要用于程序设计入门,是Python语言的标准库之一,入门级的图形绘制函数库。(Python计算生态 标准…

turtle 库

1.turtle库概述 turttle(海龟)库是turtle绘图体系python的实现。 turtle :1969年诞生,作用:程序设计入门 turtle库是python的标准库之一,入门级别的图形绘制函数 python 计算生态标准库第三方库 标准库:解释器直接安装到操作…

python---turtle库(详解)

turtle库 初识turtle库(python内置库)turtle库基本方法画布(canvas)画笔属性 应用实例彩色python(蟒蛇)多等边三角形无角正方形六角星你猜风车(为什么不会转呢?)龙卷风同心圆(箭靶)五环海绵宝宝 https://blog.csdn.net…

DGL分布式流程

DGL分布式流程 官网documentinteracting processesAPIinitializeDistGraphServerload_partition DLpack DisGraphnum_nodes(), num_edges()g.ndata DisTensorDisEmbeddingDisSamplinglow-levelhigh-level 异构DGL分布式脚本文件copy_files.pylaunch.pyDDP Test DGL 单机版data处…