卷积神经网络互相关运算和卷积运算原理

article/2025/10/24 5:27:35

       卷积神经网络用的其实不是卷积运算,实际用的是互相关运算;互相关运算和卷积运算的区别在于对输入结果所加的权重系数的顺序不同而已,但由于神经网络本身就是训练参数的,所以两者的输出结果其实是一样的,而互相关运算相比卷积运算由于权重系数(卷积核)无需翻转,更加简单,所以实际的卷积网络都是基于互相关运算的;

       互相关运算和卷积一维计算原理:

       这里先从一维的开始介绍,方便大家理解;给定一维序列W=(\ldots ,w[-1],w[0],w[1],\ldots )\和一维序列X=(\ldots ,x[-1],x[0],x[1],\ldots )\,

则互相关序列为:

W\star X=(\ldots ,(w\star x)[-1],(w\star x)[0],(w\star x)[1],\ldots )\

其中的元素为:

(w\star x)[i]=\sum\limits_{t=-\infty }^{+\infty }{w[i+t]x[t]}\

对于卷积序列为:

W*X=(\ldots ,(w*x)[-1],(w*x)[0],(w*x)[1],\ldots )\

其中的元素为:

(w*x)[i]=\sum\limits_{t=-\infty }^{+\infty }{w[i-t]x[t]}\

      这里举例来解释什么意思:假设序列W=(\ldots ,w[-1]=0,w[0],w[1],w[2],w[3]=0,\ldots )\,X=(\ldots ,x[-1]=0,x[0],x[1],x[2],x[3],x[4],x[5]=0,\ldots )\省略号表示后面都是0,因为一般来说,权重序列和输入矩阵都是稀疏矩阵;

       那么互相关运算{\color{Red} \[W\star X\]}满足:

        对于上述互相关运算W\star X\的第i个元素会等于序列W的第{​{i}_w}\个元素w[{​{i}_{w}}\]和序列X的第{​{i}_{x}}\个元素x\[{​{i}_{x}}\]相乘再相加,其中{\color{Red} {​{i}_{x}}-{​{i}_{w}}=i\

       以上面公式1的第二行为例,\(w\star x)[-2]\此时i=-2, 先看W序列和X序列的元素序号,找到{​{i}_{x}}-{​{i}_{w}}=-2\的所有组合:ix=0时,iw=2;ix=1时,iw=3,由于w[3]=0,而且后续因为都是0,所以对于(w\star x)[-2]\只有w[2]x[0]\这一项;

       再以公式1的第三行为例,(w\star x)[-1]\,此时i=-1, 先看W序列和X序列的元素序号,找到{​{i}_{x}}-{​{i}_{w}}=-1\的所有组合:ix=0时,iw=1,则;ix=1时,iw=2;ix=2时,iw=3,由于w[3]=0,而且后续因为都是0,所以对于(w\star x)[-1]\w[1]x[0]\,w[2]x[1]\共两项;后续就不在介绍了,大家可以自行推导;

       对于卷积运算{\color{Red} W*X\则是:

       对于上述卷积运算W*X\的第i个元素会等于W序列的第{​{i}_{w}}\个元素w[{​{i}_{w}}\]和序列X的第{​{i}_{x}}\个元素x[{​{i}_{x}}\]相乘再相加,其中{\color{Red} {​{i}_{x}}+{​{i}_{w}}=i\,

       以公式2第3行为例,(w*x)[1]\,此时i=1, 先看W序列和X序列的元素序号,找到{​{i}_{x}}+{​{i}_{w}}=1\的所有组合:ix=0时,iw=1,则;ix=1时,iw=0;ix=2时,iw=-1,由于w[-1]=0,而且后续因为都是0,所以对于(w*x)[1]\w[1]x[0]\,w[0]x[1]\这两项;一次类推,大家可以试试其它行,结果都符合上述规则,这里就不再推导;

       总的来说,比较互相关运算和卷积运算,可以发现他们唯一的区别就在于X序列前面的W序列的顺序刚好相反而已,如果把序列X看作神经网络输入,W看做神经网络对序列X进行线性组合的权重序列;而对于神经网络来说,只要权重序列中的权重是可以学习的,那么它的顺序就无关紧要,互相关运算和卷积运算就没有本质区别;

      在图神经网络中,输入一般不是一维的,更多是高维的,用的是更高维的互相关和卷积,对于二维的互相关计算原理,后续会慢慢更新;


http://chatgpt.dhexx.cn/article/9fjCDbtr.shtml

相关文章

全网最全的卷积运算过程

卷积运算 1.卷积核的通道(也叫滤波器)的个数得与被卷积的图片通道数相同 eg:输入图片是102410243,即通道数为3,那么每个卷积核得有3个通道 2.卷积核做的是线性运算,核上的每个值与它滑动到的对应位置上的值相乘&…

多维卷积运算

多维卷积运算 如果输入的图片是灰度图,每个像素点的值是一个整数,只需使用2D卷积运算。 但如果输入的图片是彩色的,每个像素点的值是1个由3个整数组成的组,例如(R,G,B)(155,23,222). 对于这样多维的输入图片,需要使用…

信号与系统 - 卷积运算

信号的时域分解 卷积积分 卷积定义 卷积积分的图解法 举例1 举例2 总结 卷积的性质 交换律 分配律 结合律 奇异函数的卷积性质 普通函数与冲激函数的卷积 普通函数与阶跃函数的卷积 普通函数和冲击偶函数卷积 举例 卷积的微积分分特性 卷积的微分特性 卷积的积分特性 卷积的…

【15】opencv卷积运算

参考: 【OpenCV学习笔记】之卷积及卷积算子(convolution)_点滴成海~的博客-CSDN博客_卷积算子(关于卷积运算) opencv RNG函数 - 0MrMKG - 博客园(对于RNG函数的解答) (一&#xf…

机器学习4:卷积运算简介

机器学习4:卷积运算简介【旧笔记整理】 (1)卷积运算简介: 卷积即在卷积核滑动过程中,矩阵与卷积核对应位置的数据相乘最后乘积求和的计算过程。 (2)卷积运算的特性: ①稀疏连接&…

【OpenCV 例程200篇】52. 图像的相关与卷积运算

【OpenCV 例程200篇】52. 图像的相关与卷积运算 欢迎关注 『OpenCV 例程200篇』 系列,持续更新中 欢迎关注 『Python小白的OpenCV学习课』 系列,持续更新中 滤波通常是指对图像中特定频率的分量进行过滤或抑制。图像滤波是在尽可能保留图像细节特征的条件…

Python遥感图像处理应用篇(五):python如何使用numpy对遥感图像做卷积运算

本篇接着上一篇(Python遥感图像处理应用篇(四):python如何使用numpy读取遥感图像光谱值)继续深入,对遥感图像做卷积运算处理 1.基本思路 1.1 设置卷积核 这里就用3*3大小的卷积核吧,可以根据需求任意设置卷积核数据达到图像均衡化、锐化、边缘增强等不同效果。 1.2 中心…

求助:MATLAB中实现卷积运算和理论分析中的卷积运算有什么区别?

MATLAB中实现卷积运算和理论分析中的卷积运算有什么区别。 欢迎使用Markdown编辑器 你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。 新的改变 …

通过具体的例子说明一维和二维的相关运算、卷积运算究竟是怎么做的。

在图像处理中,大量的算法中用到的运算其实都是相关运算和卷积运算。 所以,我们很有必要知道相关运算、卷积运算究竟是怎么做的。 本篇博文通过具体而简单的例子向大家说明相关运算、卷积运算究竟是怎么做的。 01-一维相关运算 下图显示了一维序列n与窗口…

卷积运算与互相关运算

在卷积神经网络中,虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使用更加直观的互相关运算(cross-correlation)运算。 卷积运算与互相关运算的联系 卷积运算与互相关运算类似。为了得到卷积运算的输出,只需将核数组左右翻转…

卷积运算(CNN卷积神经网络)

文章目录 图像卷积互相关运算卷积层图像中目标的边缘检测学习卷积核小结 图像卷积 最近学习到了卷积深度网络,有些本质概念太深暂时还没有理解透彻,现在主要记录下卷积神经网络中的一些计算。 以下介绍与计算均出自李沐老师的《动手学深度学习》&#…

java 怎么做卷积运算,入门教程之算法系列(二):卷积运算与模糊操作

卷积在信号处理领域有极其广泛的应用,也有严格的物理和数学定义。 OpenCV中对图像进行模糊操作,其背后的原理就是卷积运算,可是究竟卷积运算是什么,模糊的卷积算法又是如何实现的呢?本文将进行讨论。考虑到大部分读者的非专业性,本人将尽量不使用专业术语,而使用通俗易懂…

python实现卷积运算

一、卷积定义与朴素计算方法: 图1 卷积定义与计算方法 二、 Python代码实现 结合伪代码实现python代码如下(因为我是先写的代码,后才发现上面的伪代码,所以循环次序略有不同): import torch.nn as nn im…

卷积运算

卷积层 卷积的本质是用卷积核的参数来提取数据的特征,通过矩阵点乘运算与求和运算来得到结果。 下面给出一个基本的二维卷积的运算过程,即 y ω x b y \omega x b yωxb 特征图 ( x x x) 的大小为 1 x 5 x 5, 输入的通道数为 1.卷积核 ( ω \omeg…

深入浅出理解卷积运算

提起卷积运算相信大家都不陌生,这是一种很常见的运算。我们在学习《信号与系统》时就一直在和卷积打交道,在后来的一些课程中也有卷积运算的身影,比如《自动控制原理现代部分》中的卷积定理等。 在学习《信号与系统》时我们知道了卷积的定义&…

卷积计算——1. 关于卷积的基本概念

文章目录 卷积的基本概念卷积运算公式交换律分配律结合律数乘结合律 卷积核代码的基本框架 卷积的基本概念 卷积,是一个强有力的数学工具,在计算机领域中有很多非常不错的运用,能产生很多意想不到的效果和输出。 数学上,其连续函…

数(3)相关运算和卷积运算

目录 相关运算 卷积运算 连续信号 离散信号 卷积性质 卷积定理 (参考其他多篇博客,学习自用,侵删) 相关运算 相关运算是两个序列的相似性比较的一种数学运算。 公式里面的序列,可能是实数,可能是复数…

各种卷积方式的最全讲解

文章目录 一:卷积的定义二:标准卷积1.1D卷积Ⅰ:一维Full卷积Ⅱ:一维Same卷积Ⅲ:一维Valid卷积Ⅳ:三种一维卷积的相互关系 2.2D卷积3.3D卷积 三:转置卷积四:Separable卷积五&#xff…

深度学习(一):卷积运算

一、卷积核与池化: 1.1 卷积核(Convolutional): 将输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核(滤波器)。 一般可以看作对某个局部的…

深度学习-图解卷积运算

卷积神经网络(Convolutional Neural Network,CNN)针对全连接网络 的局限做出了修正,加入了卷积层(Convolution层)和池化层(Pooling 知 层)。 CNN被广泛应用于图像识别、语音识别等各…