卷积的理解

article/2025/9/12 7:15:32

之前,习惯把记录和总结的知识点放到云笔记上,但发现CSDN这个博客注册好久了,但却没有往上面放文章,所以决定把以前的笔记整理一下,放到这里来,以便交流学习。

关于信号的卷积

最初认识卷积来源于《信号与系统》这门课,到现在对这块还是逻辑上认可,直观上迷茫的状态,重新学习一下,简单总结如下:

还是从《信号与系统》里的知识开始讲起,单位冲激信号 δ(n) 仅在 n =0时,取得值1,其他位置皆为0。δ(n)是一类最简单的信号,我们可以将任意一个复杂的信号分解为多个类似 δ(n) 这样简单的信号。例如,对于一个任意的离散信号 x(n) ,如下图(a)所示,当 n=k 时,其取值为 x(k) ,用单位冲激信号来表示的话,可写为:

x(k)=x(k)δ(nk)=x(n)δ(nk)

式中, δ(nk) 表示单位冲激信号的延时,如图b。这样,将 s(n) δ(nk) 相乘之后,所得到的的信号除了在 n=k 处取值为 x(k) 而不为零外,其他各点均为零。

这里写图片描述

如果重复对 x(n) δ(nm) 相乘,其中m是另一个延时( mk ),则所得到的的信号仅在 n=m 时不为零,其值为 x(m) ,而在其余各处均为零。这说明,信号 x(n) 与单位冲激信号的某个延时 δ(nm) 相乘,实际上就是将信号 x(n) n=m 处的单个值 x(m) 挑选出来。因此,如果在所有可能的延时处,即 <m< ,都重复这样的动作,然后把得到的结果相加,即可得到 x(n) 的另外一种表达式:

x(n)=m=x(m)δ(nm)

这样,就将任意的一个信号分解为多个冲激信号的叠加。

单位冲激响应是输入信号为单位冲激信号 δ(n) 时所对应的系统输出,常用 h(n) 来表示。对于线程时不变系统,如果知道了单位冲激信号的输出,根据叠加定理,就可知道任意复杂信号的输出。可得:

y(n)=m=x(m)h(nm)

上式就是即为线性卷积,通常称为卷积,可以简写为: y(n)=x(n)h(n)

对于连续信号,同理,任意信号可用冲激信号的组合表示,由冲激响应 h(t) 可得:

y(t)=x(τ)h(tτ)dτ

卷积方法的原理就是将信号分解为冲激信号之和。

数学上的卷积

卷积是分析数学中一种重要的运算。设: f(x),g(x)R 上的两个可积函数,作积分:

f(τ)g(xτ)dτ

可以证明,对于所有 x(,+) ,上述积分都是存在的。这样,随着 x 的不同取值,这个积分就定义了一个新函数 h(x) ,称为函数 f g 的卷积,记为 h(x)=(fg)(x) 。可以验证 (gf)(x)=(fg)(x) ,且 h(x) 仍为可积函数。

在泛函分析中,卷积是通过两个函数 f g生成第三个函数的一种数学算子,表征函数 f 与经过翻转和平移的g的乘积函数所围成的的曲边梯形的面积。

图示两个方形脉冲波的卷积。其中函数” g ”首先对τ=0翻转,接着平移” t ”,成为g(tτ)。那么重叠部分的面积就相当于” t ”处的卷积,其中横坐标代表待变量τ以及新函数 fg 的自变量” t ”。

这里写图片描述

图示方形脉冲波和指数衰退的脉冲波的卷积(后者可能出现于RC电路中),同样地重叠部分面积就相当于”t”处的卷积。注意到因为” g ”是对称的,所以在这两张图中,反射并不会改变它的形状。

这里写图片描述

上图中,第一行分别代表两个函数f(t) g(t) 。将两个函数都用 τ 来表示,从而得到了 f(τ) g(τ) 。将函数 g(τ) 关于 τ=0 翻转,得到 g(τ) ,然后将 g(τ) 平移 t 个单位,得到g(tτ),对应第二行图像。由于 t 为非常数(实际上是时间变量),当时间变量(以下简称“时移”)取不同值时,g(tτ)能沿着 τ 轴“滑动“,第三四五行可理解为“滑动”。让t从 滑动到 + 。两函数交会时,交会范围中两函数乘积的积分值即为 f(x) g(x) 的卷积。换句话说,计算一个滑动的的加权平均值。也就是使用 g(τ) 当做加权函数,来对 f(τ) 取加权平均值。

如何通俗易懂的理解卷积

知乎里面有一个关于如何理解卷积的话题,如何通俗易懂的理解卷积。

以上,部分内容来源于维基百科。


http://chatgpt.dhexx.cn/article/00tKCFiN.shtml

相关文章

卷积的含义

本文章为学习笔记 学习内容&#xff1a;b站up主王木头学科学的视频从“卷积”、到“图像卷积操作”、再到“卷积神经网络”&#xff0c;“卷积”意义的3次改变 假设一个人在一天中持续不断地吃东西&#xff0c;同时也在消化吃下去的食物&#xff0c;就有这样两条曲线&#xf…

(n,k,N)卷积码的生成矩阵

文章目录 卷积码卷积码编码器卷积码生成矩阵子生成元和生成元子生成矩阵和生成矩阵生成矩阵的作用 举例 ( n , 1 , N ) (n,1,N) (n,1,N)卷积码 ( n , k , N ) (n,k,N) (n,k,N)卷积码 卷积码 ( n , k , N ) (n,k,N) (n,k,N)卷积码是将每 k k k个信息比特作为一组&#xff0c;编码…

线性卷积运算

一、卷积定义 卷积是两个变量在某范围内相乘后求和的结果。如果卷积的变量是g(n)序列和h(n)&#xff0c;则卷积的结果 y ( n ) g ( n ) ∗ h ( n ) ∑ i − ∞ ∞ g ( i ) h ( n − i ) y(n) g(n) * h(n) \sum_{i -\infty}^{\infty}g(i)h(n-i) y(n)g(n)∗h(n)i−∞∑∞​…

向量与矩阵的卷积算法

由于我发现网上并没有关于向量与矩阵两者进行卷积计算的具体算法&#xff0c;所以我就跟各位网友分享一下我的观点。因为本人知识储备有限&#xff0c;对卷积的了解也很是肤浅&#xff0c;没有深入研究&#xff0c;所以有错误的地方还请大神们指正&#xff0c;小子不胜感激。 …

矩阵卷积、矩阵相乘的转化

两个矩阵卷积转化为矩阵相乘形式——Matlab应用(这里考虑二维矩阵&#xff0c;在图像中对应)两个图像模糊&#xff08;边缘&#xff09;操作&#xff0c;假设矩阵A、B&#xff0c;A代表源图像&#xff0c;B代表卷积模板&#xff0c;那么B的取值决定最后运算的结果。 Matlab中的…

矩阵卷积理解

为了验证后续矩阵卷积转化为矩阵相乘&#xff0c;这里给出的conv2的实例描述&#xff1a; 假设矩阵A&#xff08;4*3&#xff09;、B&#xff08;2*3&#xff09;如下&#xff1a; 首先&#xff0c;B需要旋转180&#xff0c; 命令旋转2次90即可&#xff1a; B rot90(rot90(B)…

什么是卷积

目录 卷积是什么鬼卷积为什么这么牛卷积神经网络是个啥 卷积是什么鬼 卷积(convolution) 卷积&#xff1a; f ( t ) ∗ g ( t ) ∫ f ( τ ) g ( τ ) d ( τ ) 卷积运算符号用 ∗ 号来表示 卷积&#xff1a;f(t)*g(t)\int{f(τ)g(τ)d(τ)}\\ 卷积运算符号用*号来表示 卷积…

二维卷积/矩阵卷积

二维卷积/矩阵卷积的计算方程 设有矩阵A和矩阵B&#xff0c;它们的卷积结果矩阵的元素可由下列公式计算得来&#xff1a; C(j,k)∑p∑qA(p,q)B(j−p1,k−q1) 其中的index只要在A&#xff0c;B中valid都要参与运算。 举例来说&#xff0c;令矩阵M为卷积核矩阵&#xff0c;矩阵…

如何计算矩阵的卷积

昨天立下flag&#xff0c;要开始学习深度学习&#xff0c;深度学习中十分重要的就是卷积神经网络&#xff0c;顾名思义&#xff0c;卷积神经网络中一定会用到卷积。喵哥在博友的一篇博文中看到卷积运算用于图像边缘检测的应用实例&#xff0c;博友十分细心的在截图上做了卷积的…

矩阵乘法实现卷积运算

1. 对于普通卷积运算&#xff0c;是使用滑动窗口实现卷积运算&#xff1a; 矩阵根据卷积核的大小进行&#xff0c;从左到右、从上到i下的移动&#xff0c;对应数据相乘再相加得到的数据为该区域的值。 ​​​​​​​ ​​​​​​​ 2.矩阵乘法实现卷积 原理&#xff1a;根据…

各种卷积操作及其矩阵运算

前言 简单来讲&#xff0c;卷积是一种函数和函数产生一个新函数的数学运算&#xff0c;该数学运算的自变量是两个函数f, g&#xff08;连续或离散都可以,&#xff0c;定义域之外的部分记函数值填充为0&#xff09;&#xff0c;输出为一个函数h,满足 ,或者说&#xff0c;就是对…

矩阵卷积运算的具体过程

矩阵卷积运算的具体过程&#xff0c;很简单 最近在看图像处理&#xff0c;卷积运算这一块也查了很多&#xff0c;但是感觉都写的太复杂&#xff0c;我这里简单的写一下卷积到底是一个什么计算过程。 假设有一个卷积核h&#xff0c;就一般为3*3的矩阵&#xff1a; 有一个待处理…

矩阵卷积运算过程讲解

写了那么久的博客&#xff0c;始于Python爬虫&#xff0c;目前专于Java学习&#xff0c;终于有了属于自己的小窝&#xff0c;欢迎各位访问我的个人网站&#xff0c;未来我们一起交流进步。 在爬虫处理验证码的过程中接触到矩阵卷积运算&#xff0c;关于该类运算&#xff0c;记录…

矩阵的卷积以及使用python计算方法

1、离散⼆维卷积公式 其中A为被卷积矩阵&#xff0c;K为卷积核&#xff0c;B为卷积结果&#xff0c;该公式中&#xff0c;三个矩阵的排序均从0开始。 卷积核、滤波器通常为较小尺寸的矩阵&#xff0c;比如3333、5555等&#xff0c;数字图像是相对较大尺寸的2维&#xff08;多…

矩阵卷积

1. 矩阵的卷积运算主要用在图像处理中&#xff0c;假设输入信号为x[m,n]&#xff0c;激活响应为h[m,n]&#xff0c;则其卷积定义为&#xff1a; 2.如果矩阵的中心在边缘就要将原矩阵进行扩展&#xff0c;例如补0 3.卷积的计算步骤&#xff1a; (1) 卷积核绕自己的核心…

隐马尔可夫模型(HMM)及Viterbi算法

HMM简介 对于算法爱好者来说&#xff0c;隐马尔可夫模型的大名那是如雷贯耳。那么&#xff0c;这个模型到底长什么样&#xff1f;具体的原理又是什么呢&#xff1f;有什么具体的应用场景呢&#xff1f;本文将会解答这些疑惑。   本文将通过具体形象的例子来引入该模型&#x…

viterbi算法实例及python实现

Python中hmmlearn给出了三种HMM模型&#xff1a;MultiomialHMM,GaussianHMM,GMMHMM。本文以MultiomialHMM为例&#xff0c;使用《从机器学习到深度学习》中第六章的活动/天气模型进行推算。 假设有这样一个问题&#xff0c;远在另一个城市上大学的儿子每天通过邮件向你汇报他今…

在HMM中实际应用Viterbi算法的例子

在HMM中实际应用Viterbi算法的例子 Viterbi概念动态规划使用HMM的Viterbi算法参考Viterbi概念 本质:动态规划算法 维特比算法是多步骤每步多选择模型的最优选择问题。 其在每一步的所有选择都保存了前续所有步骤到当前步骤当前选择的最小总代价(或者最大价值)以及当前代价…

HMM和viterbi算法初步实践-----中文分词

马尔科夫性质:当一个随机过程在给定现在状态及所有过去状态情况下&#xff0c;其未来状态的条件概率分布仅依赖于当前状态。换句话说&#xff0c;在给定现在状态时&#xff0c;它与过去状态&#xff08;即该过程的历史路径&#xff09;是条件独立的&#xff08;也就是没有任何的…

HMM和Viterbi算法

一、隐马尔可夫模型&#xff08;Hidden Markov Model&#xff09; 1、简介 隐含马尔可夫模型并不是俄罗斯数学家马尔可夫发明的&#xff0c;而是美国数学家鲍姆提出的&#xff0c;隐含马尔可夫模型的训练方法&#xff08;鲍姆-韦尔奇算法&#xff09;也是以他名字命名的。隐含马…