解析卷积神经网络学习笔记——魏秀参

article/2025/9/28 14:11:42

第二章 CNN基本部件

1.理解批处理和随机梯度下降:
训练模型时随机选取n个训练样本作为一个batch(批输入),那么经过设计好的卷积神经网络就可以输出n个预测值,对这n个预测值求其损失函数(注意损失函数绝不是一个样本一个样本求的,它是n个样本的总体误差,需要除以n的),然后用梯度下降的方法更新参数,这样的一次过程就叫批处理(mini-batch)
而我们选取样本的方式是不放回随机抽样直至遍历所有样本,就是我理解的随机梯度下降。

2.理解BP算法:
基于链式法则,其实就是求偏导时换元的问题。在这里插入图片描述
注:
即X(i+1)对w(i)求偏导等于Xi
3.理解卷积的操作:
对于黑白图像仅有一个通道很好理解,就是用一个二维(如3X3)的矩阵去不断滑动黑白图像,提取特征。
而对于彩色图像,有RGB三个通道,它的输入比如是(6X6X3),这时我们一个卷积核,注意是一个卷积核,维度就是(比如3X3X3),卷积核的矩阵也需变成三个通道,然后对应相乘相加求和,得出只有一个二维矩阵了。
注意一个卷积核情况下会把原来输入的三个通道的矩阵变成一个通道,而我们可以选择用多个卷积核,比如选三个卷积核,即3个3X3X3矩阵来做卷积运算,此时我们获得矩阵就又有三个通道。
在这里插入图片描述4.池化层:池化层的作用是防止过拟合化以及降低卷积之后得到的矩阵维度,(一般会设置多个卷积核得到多个维度的矩阵,此时池化会降低每个维度下的矩阵大小,从而减少计算量。与卷积操作不同的是,池化这一层它不改变输入的维度。


http://chatgpt.dhexx.cn/article/aEp4niL3.shtml

相关文章

【干货】卷积神经网络Alex-Net、VGG-Nets、Network-In-Network案例分析

目录 Alex-Net 网络模型 VGG-Nets 网络模型 Network-In-Network 本文将以 Alex-Net、VGG-Nets、Network-In-Network 为例,分析几类经典的卷积神经网络案例。 在此请读者注意,此处的分析比较并不是不同网络模型精度的“较量”,而是希望读者…

2018年国内十大技术突破:22纳米光刻机、大型航天器回收

https://www.toutiao.com/a6639830026990649860/ 2018-12-28 08:11:39 盘点这一年的核心技术:22纳米光刻机、450公斤人造蓝宝石、0.12毫米玻璃、大型航天器回收、盾构机“弃壳返回”、远距离虹膜识别……哪一个不夺人眼球! 1 智能水刀削铁断金 10月份的…

AI的螺旋式上升?今日头条AI掌门人马维英离职,“重返”清华从事培育科研工作

2020-07-29 01:22:49 作者 | 蒋宝尚 编辑 | 丛 末 据媒体报道,字节跳动副总裁、人工智能实验室主任马维英离职,将到清华大学智能产业研究院任职,加入正在筹备该产业院的原百度总裁张亚勤团队。 对于马维英离职一事,字节跳动也做…

超全深度学习细粒度图像分析:项目、综述、教程一网打尽

在本文中,来自旷视科技、南京大学和早稻田大学的研究者对基于深度学习的细粒度图像分析进行了综述,从细粒度图像识别、检索和生成三个方向展开论述。此外,他们还对该领域未来的发展方向进行了讨论。 (CV)是用机器来理解…

机器学习防止模型过拟合的方法知识汇总

目录 LP范数L1范数L2范数L1范数和L2范数的区别DropoutBatch Normalization归一化、标准化 & 正则化Reference 其实正则化的本质很简单,就是对某一问题加以先验的限制或约束以达到某种特定目的的一种手段或操作。在算法中使用正则化的目的是防止模型出现过拟合。…

一文读懂机器学习中的正则化

正则化是一种为了减小测试误差的行为(有时候会增加训练误差)。当我们用较为复杂的模型拟合数据时,容易出现过拟合现象,导致模型的泛化能力下降,这时我们就需要使用正则化,降低模型的复杂度。本文总结阐释了正则化的相关知识点,帮助大家更好的理解正则化这一概念。 目录 L…

漆远离职阿里加盟复旦!大牛纷纷回归学界,大厂AI名存实亡?

来源丨新智元 编辑丨小咸鱼 好困 【导读】蚂蚁金服原副总裁、AI团队负责人漆远已于近日离职,出任复旦大学「浩清」教授,复旦人工智能创新与产业研究院院长。将从事深度学习、强化学习等人工智能领域的前沿研究和应用。 那个支付宝背后的AI大牛&#xff0…

正则化方法归纳总结

作者丨Poll 来源丨https://www.cnblogs.com/maybe2030/p/9231231.html 编辑丨极市平台 本文仅用于学术分享,如有侵权请联系后台删文 导读 本文先对正则化的相关概念进行解释作为基础,后对正则化的方法进行了总结,帮助大家更加清晰的了解正则化方法。 阅…

阿里副总裁、达摩院自动驾驶负责人王刚离职!

转载自:新智元 | 编辑:桃子 好困 【导读】从学界「跨界」互联网,再转身去创业。这一年,他40岁,依然选择挑战自我。消息称,阿里副总裁、达摩院自动驾驶实验室负责人王刚已于近日离职。阿里,是他的…

机器学习防止模型过拟合方法总结

转自 | 小白学视觉,作者小白 文章仅用于学术分享,侵删 目录 LP范数L1范数L2范数L1范数和L2范数的区别DropoutBatch Normalization归一化、标准化 & 正则化Reference 其实正则化的本质很简单,就是对某一问题加以先验的限制或约束以达到某种…

CV还要更热闹!旷视刚宣布4.6亿美元融资,商汤:新一轮年内完成

允中 发自 凹非寺 量子位 报道 | 公众号 QbitAI △ 商汤科技CEO徐立 你追我赶! 机器视觉(CV)领域热度还在急剧升温。 昨天,旷视科技(Face)刚完成了C轮4.6亿美元融资,刷新了AI公司全球单轮融资额纪录。 而这一纪录的保…

LaTeX 有哪些「新手须知」的内容?

孟晨 ,在 LaTeX 话题下写错 LaTeX 名字的,一律… 陈硕 等 137 人赞同 这是个好问题,虽然提问提得很大。不是很好答,权当抛砖引玉了。 天字第一号原则:不要到网上抄代码,尤其是似懂非懂的阶段。 除非代码的…

《解析深度学习》部分笔记

记录一些书里的知识点,摘自魏秀参的《解析深度学习-卷积神经网络原理与视觉实践》 第三章 卷积神经网络经典结构 1.在深度学习中,深度卷积神经网络呈现“分布式表示”,既“语义概念”到神经元是一个多对多映射。直观讲就是:每个语…

新型计算机离我们还有多远

作者:高如如,魏秀参 本文为《程序员》原创文章,未经允许不得转载,更多精彩文章请订阅《程序员》 自1946年ENIAC(Electronic Numerical Integrator And Calculator,即电子数字积分计算机)问世&am…

Must Know Tips/tricks in DNN

Must Know Tips/Tricks in Deep Neural Networks (byXiu-Shen Wei) 转载于http://lamda.nju.edu.cn/weixs/project/CNNTricks/CNNTricks.html Deep Neural Networks, especially Convolutional Neural Networks (CNN), allows computational models that are composed of mult…

[读书笔录]解析卷机神经网络(魏秀参)——第二章

解析卷积神经网络——基础理论篇 第二章 卷机神经网络基本部件 2.1 “端到端”思想(end-to-end manner) 深度学习的一个重要思想即”端到端”的学习方式,属于表示学习的一种。整个学习流程并不进行人为的子问题划分,而是完全交…

[读书笔录]解析卷机神经网络(魏秀参)——第三章

#解析卷积神经网络——基础理论篇 第三章 卷机神经网络经典结构 3.1 CNN网络结构中的重要概念 ####感受野 感受野(receptive filed)原指听觉、视觉等神经系统中一些神经元的特性,即神经元只接受其所支配的刺激区域内的信号。 以单层卷积操作为例,如左…

[读书笔录]解析卷积神经网络(魏秀参)——第一章

解析卷积神经网络——基础理论篇 第一章 卷机神经网络基础知识 1.1发展历程 卷积神经网络发展历史中的第一件里程碑事件发生在上世纪60年代左右的神经科学中,1959 年提出猫的初级视皮层中单个神经元的“感受野”概念,紧接着于1962年发现了猫的视觉中枢…

如何看旷视南京负责人魏秀参跳槽高校工作?

链接:https://www.zhihu.com/question/404733616 编辑:深度学习与计算机视觉 声明:仅做学术分享,侵删 跳槽本是正常现象,之所以会在知乎引起讨论,说明其中有让大家值得关注的点。但我们吃瓜群众&#xff0c…

[阅读笔记]《解析卷积神经网络_深度学习实践手册》魏秀参著

书籍下载地址:http://lamda.nju.edu.cn/weixs/book/CNN_book.pdf 这本书名虽然有实践两个字,但内容还是主要介绍在实践框架中涉及的基本概念、方法和技巧介绍,侧重于实践中的概念介绍并不是手把手告诉你如何在某平台上搭建一个卷积神经网络&a…