AlexNet-深度卷积神经网络(CNN卷积神经网络)

article/2025/8/22 13:16:00

文章目录

    • 深度卷积神经网络(AlexNet)
      • AlexNet
      • 模型说明
      • 激活函数选定
      • 模型定义
      • 读取数据集
      • 训练AlexNet
      • 小结

深度卷积神经网络(AlexNet)

2012年,AlexNet横空出世。它首次证明了学习到的特征可以超越手工设计的特征

它一举打破了计算机视觉研究的现状。 AlexNet使用了8层卷积神经网络,并以很大的优势赢得了2012年ImageNet图像识别挑战赛。

AlexNet

AlexNet和LeNet的架构非常相似,如下图所示。 注意,这里我们提供了一个稍微精简版本的AlexNet,去除了当年需要两个小型GPU同时运算的设计特点。

在这里插入图片描述

AlexNet 和 LeNet 的设计理念非常相似,但也存在显著差异。 首先,AlexNet 比相对较小的 LeNet5 要深得多。 AlexNet 由八层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层。 其次,AlexNet 使用 ReLU 而不是 sigmoid 作为其激活函数。 下面,让我们深入研究 AlexNet 的细节。

模型说明

在AlexNet的第一层,卷积窗口的形状是 11 × 11 11 \times 11 11×11 。 由于ImageNet中大多数图像的宽和高比MNIST图像的多10倍以上,因此,需要一个更大的卷积窗口来捕获目标。 第二层中的卷积窗口形状被缩减为 5 × 5 5 \times 5 5×5 ,然后是 3 × 3 3 \times 3 3×3 。 此外,在第一层、第二层和第五层卷积层之后,加入窗口形状为 3 × 3 3 \times 3 3×3 、步幅为2的最大汇聚层。 而且,AlexNet的卷积通道数目是LeNet的10倍。

在最后一个卷积层后有两个全连接层,分别有4096个输出。 这两个巨大的全连接层拥有将近1GB的模型参数。 由于早期GPU显存有限,原版的AlexNet采用了双数据流设计,使得每个GPU只负责存储和计算模型的一半参数。 幸运的是,现在GPU显存相对充裕,所以我们现在很少需要跨GPU分解模型(因此,我们的AlexNet模型在这方面与原始论文稍有不同)。

激活函数选定

此外,AlexNet将sigmoid激活函数改为更简单的ReLU激活函数

一方面,ReLU激活函数的计算更简单,它不需要如sigmoid激活函数那般复杂的求幂运算。

另一方面,当使用不同的参数初始化方法时,ReLU激活函数使训练模型更加容易。 当sigmoid激活函数的输出非常接近于0或1时,这些区域的梯度几乎为0,因此反向传播无法继续更新一些模型参数。 相反,ReLU激活函数在正区间的梯度总是1。 因此,如果模型参数没有正确初始化,sigmoid函数可能在正区间内得到几乎为0的梯度,从而使模型无法得到有效的训练。

模型定义

现在我们根据上图来构建 AlexNet卷积神经网络。

相对于LeNet模型,我们做了以下的改变:

1、增加了卷积层的数量,现在AlexNet卷积神经网络具有5个卷积层。

2、使用了非线性激活函数ReLU()激活函数,更好应用模型的优化方法。

3、添加了暂退法Dropout来减少模型的过拟合,降低模型复杂度。

import torch
from torch import nn
from d2l import torch as d2lnet = nn.Sequential(# 这里,我们使用一个11*11的更大窗口来捕捉对象。# 同时,步幅为4,以减少输出的高度和宽度。# 另外,输出通道的数目远大于LeNetnn.Conv2d(1, 96, kernel_size=11, stride=4, padding=1), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2),# 减小卷积窗口,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数nn.Conv2d(96, 256, kernel_size=5, padding=2), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2),# 使用三个连续的卷积层和较小的卷积窗口。# 除了最后的卷积层,输出通道的数量进一步增加。# 在前两个卷积层之后,汇聚层不用于减少输入的高度和宽度nn.Conv2d(256, 384, kernel_size=3, padding=1), nn.ReLU(),nn.Conv2d(384, 384, kernel_size=3, padding=1), nn.ReLU(),nn.Conv2d(384, 256, kernel_size=3, padding=1), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2),nn.Flatten(),# 这里,全连接层的输出数量是LeNet中的好几倍。使用dropout层来减轻过拟合nn.Linear(6400, 4096), nn.ReLU(),nn.Dropout(p=0.5),nn.Linear(4096, 4096), nn.ReLU(),nn.Dropout(p=0.5),# 最后是输出层。由于这里使用Fashion-MNIST,所以用类别数为10,而非论文中的1000nn.Linear(4096, 10))

我们构造一个高度和宽度都为224的单通道数据,来观察每一层输出的形状。 它与下图中的 AlexNet架构 相匹配。

X = torch.randn(1, 1, 224, 224)
for layer in net:X=layer(X)print(layer.__class__.__name__,'output shape:\t',X.shape)
Conv2d output shape:	 torch.Size([1, 96, 54, 54])
ReLU output shape:	 torch.Size([1, 96, 54, 54])
MaxPool2d output shape:	 torch.Size([1, 96, 26, 26])
Conv2d output shape:	 torch.Size([1, 256, 26, 26])
ReLU output shape:	 torch.Size([1, 256, 26, 26])
MaxPool2d output shape:	 torch.Size([1, 256, 12, 12])
Conv2d output shape:	 torch.Size([1, 384, 12, 12])
ReLU output shape:	 torch.Size([1, 384, 12, 12])
Conv2d output shape:	 torch.Size([1, 384, 12, 12])
ReLU output shape:	 torch.Size([1, 384, 12, 12])
Conv2d output shape:	 torch.Size([1, 256, 12, 12])
ReLU output shape:	 torch.Size([1, 256, 12, 12])
MaxPool2d output shape:	 torch.Size([1, 256, 5, 5])
Flatten output shape:	 torch.Size([1, 6400])
Linear output shape:	 torch.Size([1, 4096])
ReLU output shape:	 torch.Size([1, 4096])
Dropout output shape:	 torch.Size([1, 4096])
Linear output shape:	 torch.Size([1, 4096])
ReLU output shape:	 torch.Size([1, 4096])
Dropout output shape:	 torch.Size([1, 4096])
Linear output shape:	 torch.Size([1, 10])

读取数据集

尽管本文中AlexNet是在ImageNet上进行训练的,但我们在这里使用的是Fashion-MNIST数据集。因为即使在现代GPU上,训练ImageNet模型,同时使其收敛可能需要数小时或数天的时间。 将AlexNet直接应用于Fashion-MNIST的一个问题是,Fashion-MNIST图像的分辨率( 28 × 28 28 \times 28 28×28 像素)低于ImageNet图像。 为了解决这个问题,我们将它们增加到 224 × 224 224 \times 224 224×224 (通常来讲这不是一个明智的做法,但我们在这里这样做是为了有效使用AlexNet架构)。 我们使用d2l.load_data_fashion_mnist函数中的resize参数执行此调整。

batch_size = 128
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)

训练AlexNet

现在,我们可以开始训练AlexNet了。与之前的LeNet相比,这里的主要变化是使用更小的学习速率训练,这是因为网络更深更广、图像分辨率更高,训练卷积神经网络就更昂贵。

lr, num_epochs = 0.01, 10
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NtCkt3PF-1665369098166)(attachment:QQ%E6%88%AA%E5%9B%BE20221006093727.png)]

可以发现,AlexNet 神经网络模型相对于LeNet模型(train:0.82, test: 0.78)有了明显的提升。

小结

1、AlexNet的架构与LeNet相似,但使用了更多的卷积层和更多的参数来拟合大规模的ImageNet数据集。

2、今天,AlexNet已经被更有效的架构所超越,但它是从浅层网络到深层网络的关键一步。

3、尽管AlexNet的代码只比LeNet多出几行,但学术界花了很多年才接受深度学习这一概念,并应用其出色的实验结果。这也是由于缺乏有效的计算工具。

4、Dropout、ReLU和预处理是提升计算机视觉任务性能的其他关键步骤。


http://chatgpt.dhexx.cn/article/0IFy9Bor.shtml

相关文章

深度学习中的卷积神经网络

博主简介 博主是一名大二学生,主攻人工智能研究。感谢让我们在CSDN相遇,博主致力于在这里分享关于人工智能,c,Python,爬虫等方面知识的分享。 如果有需要的小伙伴可以关注博主,博主会继续更新的&#xff0c…

深度学习:卷积神经网络(详解版)

文章目录 一、全局连接VS局部连接1.1 局部神经元连接的优势1.2 全连接网络的权重参数量1.3 神经网络的局部特征提取(卷积) 二:感受野2.1 生物上的定义2.2 深度学习的定义2.3 感受野的作用2.4 感受野的计算公式2.5 感受野对网络的影响 三&…

深度卷积神经网络基本介绍

关于深度卷积神经网络的前世今生,就不在此处进行过多的介绍。在此,主要对网络的各个组成部分进行简要介绍: 图1 基本的深度卷积网络结构 通过图1可知深度卷积神经网络主要是由输入层、卷积层、激活函数、池化层、全连接层和输出层组成。以下将…

深度卷积神经网络(CNN)

CNN简述 卷积神经网络(Convolutional Neural Network,CNN),它是属于前馈神经网络的一种,其特点是每层的神经元节点只响应前一层局部区域范围内的神经元(全连接网络中每个神经元节点则是响应前一层的全部节…

深度学习|卷积神经网络

一、卷积神经网络简介 卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习神经网络结构,主要用于图像识别、计算机视觉等领域。该结构在处理图像等高维数据时表现出色,因为它具有共享权重和局部感知的特点…

什么是深度卷积神经网络,卷积神经网络怎么学

卷积神经网络通俗理解 。 卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习(deeplearning)的代表算法…

深度学习—卷积神经网络(Convolutional Neural Networks)

卷积神经网络(Convolutional Neural Networks) 卷积神经网络(convolutional neural network, CNN),是一种专门用来处理具有类似网格结构的数据的神经网络。例如时间序列数据(可以认为是在时间轴上有规律地…

深度卷积图神经网络(Deep Convolutional Graph Neural Network,DCGNN)的基本概念与应用

目录 一、引言 1.1 神经网络的发展历程 1.2 图神经网络的出现 二、深度卷积图神经网络的基本概念 2.1 图的表示 2.2 图卷积神经网络 2.3 深度卷积图神经网络 三、深度卷积图神经网络的应用 3.1 图像分类 3.2 图像分割 3.3 图像生成 四、深度卷积图神经网络的优缺点 …

超级详细的安装虚拟机教程--配图--步骤拆分

1、首先我们需要下载两个文件,一个虚拟机文件,一个程序光盘文件。然后我们安装虚拟机, 类似于这两个文件: 2、虚拟机安装好之后回来到这个页面:点击创建新的虚拟机 3、选择界面,建议选择自定义:…

VMware vSphere Client 安装虚拟机

一、VMware vSphere Client安装虚拟机步骤。 1、启动虚拟机安装,如下图所示。 2、选择所需要安装的虚拟机类型,例如Centos7 、ubuntu、debian等。 3、选择磁盘、内存、CPU大小。 4、启动虚拟机。 5、选择操作系统镜像进行安装。 二、操作系统安装。 1、…

Mac m2芯片安装虚拟机win11

写在前面,这两天安装虚拟机和Windows系统搞的我头皮发麻,遇到了很多不能解决的问题,主要就是m1/m2芯片好多软件都不兼容脑阔疼,失败的路程就不展示了,我们只展示成功过程中的修问题 一开始使用的virtual box虚拟机&am…

VirtualBox安装虚拟机全过程

使用Virtual Box安装虚拟机,虚拟机操作系统使用CentOS7进行安装,安装完成后解决网络设置的问题。 一、虚拟机新建过程 1、点击新建。 2、设置内存大小,点击下一步。 3、选择虚拟硬盘,点击创建。 4、选择创建虚拟硬盘,点…

crossover2023最新苹果笔记本mac系统如何安装虚拟机?

mac系统怎么装虚拟机?如果只在mac上安装虚拟机软件是无法正常运行Windows系统的,还需要将Windows镜像文件导入由虚拟机软件搭建的Windows系统运行环境。mac虚拟机性能怎么样?mac虚拟机的性能由电脑本身的存储空间,以及虚拟机软件&…

安装虚拟机步骤 详细

虚拟机安装步骤 打开VMware Workstation,点击创建新的虚拟机。 点击自定义(高级)(C),下一步。 选择虚拟机硬件兼容性 Workstation 15.x,下一步。 选择稍后安装操作系统,下一步。 …

cas cvm服务器虚拟化安装虚拟机,CAS系统如何安装虚拟机

1、在CVM的云平台中选择一台物理服务器右击,在弹出的选项中选择“增加虚拟机”。给虚拟机配置名称,选择操作系统版本,这一步一定要注意,这里选择的操作系统版本指的是会安装对应操作系统版本的驱动,如果这里选择的版本和实际安装的操作系统版本不一致会导致虚拟机不能正常…

虚拟机服务器安装虚拟机的步骤

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 1.创建虚拟机第一步第二步第三步第四步第五步第六步 2.配置虚拟机 1.创建虚拟机 第一步 访问虚拟机服务器:IP地址端口号 第二步 创建/注册虚拟机>…

win10系统安装虚拟机

本文包含1553 个字,阅读大约需要3-5分钟。 昨天在平台上分享了一下,如何安装win10系统,今天想跟大家分享一下如何在Windows上安装虚拟机。 文章目录 1.为什么要安装虚拟机2.虚拟机的好处3.虚拟机的种类4.安装步骤注意事项:因为p…

超详细使用VirtualBox安装虚拟机

文章为中华石杉老师课程总结!!! 1、下载VirtualBox管理工具。 2、到官网下载。我下载的是最新的版本。 3、安装VirtualBox. 4、这里变更下安装路径。只要不是系统盘就可以。 之后就是默认 下一步就可以。 5、打开VirtualBox。 6、点击控制-&…

虚拟机安装群晖

1.准备文件 下载链接 群晖助手、群晖pat文件、虚拟机文件 2.记事本编辑虚拟机vmx文件 修改版本号与虚拟机版本一致 3.双击vmx文件 选择虚拟机 右键设置参数如图 4.安装群晖助手 启动虚拟机打开助手 搜索联机 等待加载 点击安装 选择pat 等待安装 配置账号信息登录

手机安装虚拟机

大部分一般都是把 Linux 系统装在计算机中的,通过虚拟机安装运行或者执行装成 Linux 系统使用。那么手机上可以安装 Linux 吗?有没有人想过这个问题,答案是当然可以。可以想一下在日常使用的手机上安装一套完整的 Linux 系统,那将…