matlab 矩阵卷积

article/2025/9/12 6:54:48

卷积的表达式:

y(n)=x(n)*h(n)=sigma{x(m)h(n-m)}
y(n)=x(n)*sigma{deta(n-m)} 对应信号系统的卷积冲激函数,系统的结果就是信号和其本身的线性移位

结果元素的个数,x(n)的长度是n,h(n)的长度是m,则结果的序列长度就是n+m-1

和信号处理的过程是一致的,任何一本信号处理的书都有详细的讲解

1.h(n)序列倒置->位移->相乘->取和

举例:x(n) = [4,3,2,1],h(n) = [3,2,1]。

h(n)倒置为h'(n)[1,2,3],逐渐从前向x(n)位移,直到h'(n)最后一个元素3与x(n)第一个元素4接触时,开始相乘,也就是将两个序列相交的元素相乘并求和。

因此x(n)*h(n) = [4×3,2×4+3×3,1×4+2×3+3×2,1×3+2×2+3×1,1×2+2×1,1×1]  = [12,17,16,10,4,1]

2.对位相乘求和。

步骤:①两序列右对齐;②逐个元素对应相乘但是不进位;③同列乘值相加

clear;clc;
p=[1 2 3];
q=[1 1];
result1=conv(p,q);
a=[1 1 1];
b=[1 1 1;1 1 1;1 1 1];
result2=conv2(a,b,'full');
result3=conv2(a,b,'same');
result4=conv2(a,b,'valid');

矩阵卷积conv2用于二维矩阵的卷积

也是类似于一维,将较小的那个矩阵旋转180,就是将矩阵翻转,初始矩阵按照两个矩阵大小补零,然后按顺序乘,顺序是从左向右,从上向下,然后相加.

直到没有重叠的部分.

matlab官方的函数讲解如下:

%   C = CONVN(A, B, 'shape') controls the size of the answer C:
%     'full'   - (default) returns the full N-D convolution
%     'same'   - returns the central part of the convolution that
%                is the same size as A.
%     'valid'  - returns only the part of the result that can be
%                computed without assuming zero-padded arrays.
%                size(C,k) = max([nak-max(0,nbk-1)],0).

 

最后,我们可以总结出full,same,valid三种卷积后图像大小的计算公式:

 

1.full: 滑动步长为1,矩阵大小为n*n,卷积核大小为mxm,卷积后图像大小:(n+m-1) *(n+m-1)

如图, 滑动步长为1,矩阵大小为6*6,卷积核大小为4*4,卷积后图像大小:10*10

2.same: 滑动步长为1,矩阵大小为n*n,卷积核大小为mxm,卷积后图像大小:n*n

3.valid:滑动步长为S,矩阵大小为n*n,卷积核大小为mxm,卷积后图像大小:(n-m)/S+1 *(n-m)/S+1

步骤:1

2:

3:

本文参考文章:https://www.cnblogs.com/hyb221512/p/9276621.html and https://www.cnblogs.com/dasein/p/5692153.html


http://chatgpt.dhexx.cn/article/Jg2Q872D.shtml

相关文章

卷积的理解

之前,习惯把记录和总结的知识点放到云笔记上,但发现CSDN这个博客注册好久了,但却没有往上面放文章,所以决定把以前的笔记整理一下,放到这里来,以便交流学习。 关于信号的卷积 最初认识卷积来源于《信号与…

卷积的含义

本文章为学习笔记 学习内容:b站up主王木头学科学的视频从“卷积”、到“图像卷积操作”、再到“卷积神经网络”,“卷积”意义的3次改变 假设一个人在一天中持续不断地吃东西,同时也在消化吃下去的食物,就有这样两条曲线&#xf…

(n,k,N)卷积码的生成矩阵

文章目录 卷积码卷积码编码器卷积码生成矩阵子生成元和生成元子生成矩阵和生成矩阵生成矩阵的作用 举例 ( n , 1 , N ) (n,1,N) (n,1,N)卷积码 ( n , k , N ) (n,k,N) (n,k,N)卷积码 卷积码 ( n , k , N ) (n,k,N) (n,k,N)卷积码是将每 k k k个信息比特作为一组,编码…

线性卷积运算

一、卷积定义 卷积是两个变量在某范围内相乘后求和的结果。如果卷积的变量是g(n)序列和h(n),则卷积的结果 y ( n ) g ( n ) ∗ h ( n ) ∑ i − ∞ ∞ g ( i ) h ( n − i ) y(n) g(n) * h(n) \sum_{i -\infty}^{\infty}g(i)h(n-i) y(n)g(n)∗h(n)i−∞∑∞​…

向量与矩阵的卷积算法

由于我发现网上并没有关于向量与矩阵两者进行卷积计算的具体算法,所以我就跟各位网友分享一下我的观点。因为本人知识储备有限,对卷积的了解也很是肤浅,没有深入研究,所以有错误的地方还请大神们指正,小子不胜感激。 …

矩阵卷积、矩阵相乘的转化

两个矩阵卷积转化为矩阵相乘形式——Matlab应用(这里考虑二维矩阵,在图像中对应)两个图像模糊(边缘)操作,假设矩阵A、B,A代表源图像,B代表卷积模板,那么B的取值决定最后运算的结果。 Matlab中的…

矩阵卷积理解

为了验证后续矩阵卷积转化为矩阵相乘,这里给出的conv2的实例描述: 假设矩阵A(4*3)、B(2*3)如下: 首先,B需要旋转180, 命令旋转2次90即可: B rot90(rot90(B)…

什么是卷积

目录 卷积是什么鬼卷积为什么这么牛卷积神经网络是个啥 卷积是什么鬼 卷积(convolution) 卷积: f ( t ) ∗ g ( t ) ∫ f ( τ ) g ( τ ) d ( τ ) 卷积运算符号用 ∗ 号来表示 卷积:f(t)*g(t)\int{f(τ)g(τ)d(τ)}\\ 卷积运算符号用*号来表示 卷积…

二维卷积/矩阵卷积

二维卷积/矩阵卷积的计算方程 设有矩阵A和矩阵B,它们的卷积结果矩阵的元素可由下列公式计算得来: C(j,k)∑p∑qA(p,q)B(j−p1,k−q1) 其中的index只要在A,B中valid都要参与运算。 举例来说,令矩阵M为卷积核矩阵,矩阵…

如何计算矩阵的卷积

昨天立下flag,要开始学习深度学习,深度学习中十分重要的就是卷积神经网络,顾名思义,卷积神经网络中一定会用到卷积。喵哥在博友的一篇博文中看到卷积运算用于图像边缘检测的应用实例,博友十分细心的在截图上做了卷积的…

矩阵乘法实现卷积运算

1. 对于普通卷积运算,是使用滑动窗口实现卷积运算: 矩阵根据卷积核的大小进行,从左到右、从上到i下的移动,对应数据相乘再相加得到的数据为该区域的值。 ​​​​​​​ ​​​​​​​ 2.矩阵乘法实现卷积 原理:根据…

各种卷积操作及其矩阵运算

前言 简单来讲,卷积是一种函数和函数产生一个新函数的数学运算,该数学运算的自变量是两个函数f, g(连续或离散都可以,,定义域之外的部分记函数值填充为0),输出为一个函数h,满足 ,或者说,就是对…

矩阵卷积运算的具体过程

矩阵卷积运算的具体过程,很简单 最近在看图像处理,卷积运算这一块也查了很多,但是感觉都写的太复杂,我这里简单的写一下卷积到底是一个什么计算过程。 假设有一个卷积核h,就一般为3*3的矩阵: 有一个待处理…

矩阵卷积运算过程讲解

写了那么久的博客,始于Python爬虫,目前专于Java学习,终于有了属于自己的小窝,欢迎各位访问我的个人网站,未来我们一起交流进步。 在爬虫处理验证码的过程中接触到矩阵卷积运算,关于该类运算,记录…

矩阵的卷积以及使用python计算方法

1、离散⼆维卷积公式 其中A为被卷积矩阵,K为卷积核,B为卷积结果,该公式中,三个矩阵的排序均从0开始。 卷积核、滤波器通常为较小尺寸的矩阵,比如3333、5555等,数字图像是相对较大尺寸的2维(多…

矩阵卷积

1. 矩阵的卷积运算主要用在图像处理中,假设输入信号为x[m,n],激活响应为h[m,n],则其卷积定义为: 2.如果矩阵的中心在边缘就要将原矩阵进行扩展,例如补0 3.卷积的计算步骤: (1) 卷积核绕自己的核心…

隐马尔可夫模型(HMM)及Viterbi算法

HMM简介 对于算法爱好者来说,隐马尔可夫模型的大名那是如雷贯耳。那么,这个模型到底长什么样?具体的原理又是什么呢?有什么具体的应用场景呢?本文将会解答这些疑惑。   本文将通过具体形象的例子来引入该模型&#x…

viterbi算法实例及python实现

Python中hmmlearn给出了三种HMM模型:MultiomialHMM,GaussianHMM,GMMHMM。本文以MultiomialHMM为例,使用《从机器学习到深度学习》中第六章的活动/天气模型进行推算。 假设有这样一个问题,远在另一个城市上大学的儿子每天通过邮件向你汇报他今…

在HMM中实际应用Viterbi算法的例子

在HMM中实际应用Viterbi算法的例子 Viterbi概念动态规划使用HMM的Viterbi算法参考Viterbi概念 本质:动态规划算法 维特比算法是多步骤每步多选择模型的最优选择问题。 其在每一步的所有选择都保存了前续所有步骤到当前步骤当前选择的最小总代价(或者最大价值)以及当前代价…

HMM和viterbi算法初步实践-----中文分词

马尔科夫性质:当一个随机过程在给定现在状态及所有过去状态情况下,其未来状态的条件概率分布仅依赖于当前状态。换句话说,在给定现在状态时,它与过去状态(即该过程的历史路径)是条件独立的(也就是没有任何的…