详解SVD(奇异值分解)

article/2025/9/26 19:22:00

1、特征值分解(EVD)

实对称矩阵

在理角奇异值分解之前,需要先回顾一下特征值分解,如果矩阵A是一个m*m的实对称矩阵(即A=A^T),那么它可以被分解成如下的形式

A = Q\Sigma Q^T = Q\begin{bmatrix} \lambda1 & \\ & \lambda2 & \\ & & \lambda3 \\ \end{bmatrix}Q^T \quad \quad \quad \quad #(1-1)

其中Q为标准正交阵,即有QQ^T = I\Sigma为对角矩阵,且上面的矩阵的维度均为m*m\lambda_i称为特征值q_iQ的(特征矩阵)中的列向量,称为特征向量。

(注:I在这里表示单位阵,有时候也用E表示单位阵。式(1-1)的具体求解过程就不多叙述了,可以追忆一下美好的大学时光的线性代数,简单地有如下关系:Aq_i = \lambda_i q_i,\quad q_i^Tq_j = 0(i\neq j)

 

一般矩阵

上面的特征值分解,对矩阵有着较高的要求,它需要被分解的矩阵,它需要被分解的矩阵A为实对称矩阵,但是现实中,我们所遇到的问题一般不是是对称矩阵。那么当我们碰到一般性的矩阵,即有一个m*n的矩阵A,它是否能被分解成上面的式(1-1)的形式呢?当然是可以的,这就是我们下面要讨论的内容。

 

2、奇异值分解(SVD)

2.1 奇异值分解定义

有一个m*n的实数矩阵A,我们想要把它分解成如下的形式

A=U\Sigma V^T \quad \quad \quad \quad (2-1)

其中UV均为单位正交阵,即有UU^T=IVV^=IU称为左奇异矩阵,V称为右奇异矩阵,\Sigma仅在主对角线上有值,我们称它为奇异值,其他元素均为0。上面矩阵的维度分别为U\in R^{m*m}, \Sigma \in R^{m*n}, V\in R^{n*n}

一般地\Sigma有如下形式(这里是4*5)

\Sigma=\begin{bmatrix} \sigma_1 & 0&0 &0 &0 \\ 0& \sigma_2 &0 &0 &0 \\ 0& 0& \sigma_3 & 0& 0\\ 0& 0& 0& \sigma_4 &0 \end{bmatrix}_{m*n}

 

                                                                                                                                                                                      图1-1 奇异值分解

 

对于奇异值分解,我们可以利用上面的图形象表示,图中方块的颜色表示值的大小,颜色越浅,值越大。对于奇异值矩阵ΣΣ,只有其主对角线有奇异值,其余均为0。

2.2 奇异值求解

正常求上面的U,V,\Sigma不便于求,我们可以利用如下性质

AA^T=U\Sigma V^TV\Sigma U^T = U\Sigma \Sigma^T U^T \quad \quad \quad \quad (2-2)

 AA^T=V\Sigma ^T U^T U \Sigma V^T = V\Sigma ^T \Sigma V^T \quad \quad \quad \quad (2-3)

 (注:需要指出的是,这里\Sigma \Sigma ^T\Sigma^T\Sigma在矩阵的角度上来说,它们是不相等的,因为它们的维数不同\Sigma \Sigma^T \in R^{m*m},而\Sigma^T \Sigma \in R^{n*n},但是他们在主对角线的奇异值是相等的,即有

\Sigma\Sigma^T=\begin{bmatrix} \sigma^2_1& 0& 0& 0& \\ 0& \sigma^2_2& 0& 0& \\ 0& 0& \sigma^2_3& 0& \\ 0 & 0& 0& \sigma^2_4& \end{bmatrix}_{m*m}                 \Sigma^T\Sigma=\begin{bmatrix} \sigma^2_1& 0& 0& 0& \\ 0& \sigma^2_2& 0& 0& \\ 0& 0& \sigma^2_3& 0& \\ 0 & 0& 0& \sigma^2_4& \end{bmatrix}_{n*n}

可以看到式(2-2)与式(1-1)的形式非常相同,进一步分析,我们可以发现AA^TA^TA也是对称矩阵,那么可以利用式(1-1),做特征值分解。利用式(2-2)特征值分解,得到的特征矩阵即为U;利用式(2-3)特征值分解,得到的特征值矩阵即为V;对\Sigma \Sigma ^T\Sigma^T \Sigma的特征值开方,可以得到所有的奇异值。

3、奇异值分解应用

3.1 纯数学例子

假设我们现在有矩阵A,需要对其做奇异值分解,已知

A=\begin{bmatrix} 1 & 5& 7& 6&1 \\ 2& 1& 10& 4 &1 \\ 3& 6 & 7& 5 & 2 \end{bmatrix}

那么可以求出AA^TA^TA,如下

AA^T = \begin{bmatrix} 112 & 105& 114\\ 105& 137& 110\\ 114& 110& 123 \end{bmatrix}         AA^T = \begin{bmatrix} 14 & 25& 48& 29& 15\\ 25& 62& 87& 64&21 \\ 48& 87& 198& 117&61 \\ 29& 64& 117& 77&32 \\ 15& 21& 61 & 32& 21 \end{bmatrix}

分别对上面做特征值分解,得到如下结果

U = 
[[-0.55572489, -0.72577856,  0.40548161],[-0.59283199,  0.00401031, -0.80531618],[-0.58285511,  0.68791671,  0.43249337]]V = 
[[-0.18828164, -0.01844501,  0.73354812,  0.65257661,  0.06782815],[-0.37055755, -0.76254787,  0.27392013, -0.43299171, -0.17061957],[-0.74981208,  0.4369731 , -0.12258381, -0.05435401, -0.48119142],[-0.46504304, -0.27450785, -0.48996859,  0.39500307,  0.58837805],[-0.22080294,  0.38971845,  0.36301365, -0.47715843,  0.62334131]]

 

奇异值\Sigma=Diag(18.54,1.83,5.01)


http://chatgpt.dhexx.cn/article/7DrNtqBT.shtml

相关文章

SVD分解原理及基于SVD分解的图像压缩和去噪

SVD分解是矩阵论中的一个知识点,特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么,可以将每一个特征向量理解为一个线性的子空间,我们可以利用这些线性的子空间干…

矩阵分解SVD

《矩阵分解SVD》   本来是做了一个MobileNetV2中的关于ReLU的一个实验,大体用到的知识是对一个 n ∗ 2 n*2 n∗2 的矩阵通过 2 ∗ m 2*m 2∗m 的随机矩阵映射到 n ∗ m n*m n∗m ,经过ReLU函数后再映射回 n ∗ 2 n*2 n∗2 ,那么就需要…

t-svd张量分解算法详解

t-svd张量分解算法详解 讲解论文所需基础知识背景知识介绍什么是svd分解?定义1:svd分解 什么是张量? t-svd分解详解正式定义t-svd!疑惑问题解惑前需要学习的定义:定义2.1:张量t积 疑惑解答: 讲解…

【机器学习中的矩阵分解】LU分解、QR分解、SVD分解

学习总结 文章目录 学习总结一、三角分解(LU分解)1.1 高斯消元1.2 LU分解原理1.3 LU分解python代码1.4 LU分解算法 二、QR分解2.1 Schmid 正交化2.2 使用 Schmid 施密特正交化过程求 QR 分解2.3 QR分解的栗子 三、SVD分解3.1 SVD定义3.2 SVD基本理论&…

【六】SVD分解

SVD分解在很多经典应用中都有用到,比如数据压缩,降噪等,PCA也和SVD有着紧密联系,这里记录自己关于SVD分解求解最小二乘解的学习笔记,若有错误请指出,谢谢。 在实践中,由于存在测量误差和多次测…

SVD分解原理详解

在介绍SVD之前,先补充一些基础知识 1.酉矩阵: 2.正规(正定)矩阵 3.谱分解: 表示正规矩阵,可经由酉变换,分解为对角矩阵;这种矩阵分解的方式,称为谱分解(spec…

矩阵分解(四)——SVD分解

目录 矩阵相关术语共轭矩阵(Hermite阵)特征值相似矩阵A^H^A^H^A酉矩阵酉相抵(正交相抵)奇异值奇异值分解式特征分解 奇异值分解python代码实现验证结果 np.linalg.svd 利用Python进行SVD分解对图像压缩 矩阵相关术语 共轭矩阵&am…

聊聊特征分解和SVD分解

矩阵分解 矩阵分解(decomposition,factorization):将矩阵拆分为多个矩阵的乘积的运算。矩阵的分解包括以下几种: 特征分解SVD分解PCAQR分解LU分解极分解 矩阵分解在数据压缩、推荐系统以及NLP等都有着比较广泛的应用。 特征分解 特征分解(eigendeco…

SVD奇异值分解

SVD分解 SVD分解是LSA的数学基础,本文是我的LSA学习笔记的一部分,之所以单独拿出来,是因为SVD可以说是LSA的基础,要理解LSA必须了解SVD,因此将LSA笔记的SVD一节单独作为一篇文章。本节讨论SVD分解相关数学问题&#xf…

矩阵分解 SVD分解

在认识SVD之前,先来学习两个相关的概念:正交矩阵和酉矩阵。 如果,则阶实矩阵称为正交矩阵。而酉矩阵是正交矩阵往复数域上的推广。 判断正交矩阵和酉矩阵的充分必要条件是:。或者说正交矩阵和酉矩阵的共轭转置和它的 …

SVD分解的推导,理解SVD分解及矩阵奇异值的几何意义

文章目录 SVD分解的证明推导从本质上理解SVD分解矩阵奇异值的几何意义 SVD分解的证明推导 理解SVD分解要解决的问题是什么? 从本质上理解SVD分解 从线性映射的矩阵表示角度,即从“抽象”->“具体”的角度去理解SVD分解。 矩阵奇异值的几何意义…

矩阵分解SVD原理

常用的经典矩阵分解算法: 经典算法PCA、SVD主题模型算法LDA概率矩阵分解PMF,由深度学习大牛Ruslan Salakhutdinov所写,主要应用于推荐系统中,在大规模的稀疏不平衡性Netflix数据集上取得较好的效果;非负矩阵分解&#…

精简易懂,30 分钟学会 SVD 矩阵分解,很强!

点击上方“小白学视觉”,选择加"星标"或“置顶” 重磅干货,第一时间送达SVD(Singular Value Decomposition)奇异值分解分解是机器学习中最重要的矩阵分解方法。 它能够将一个任意形状的矩阵分解成一个正交矩阵和一个对角矩阵以及另一个正交矩阵…

矩阵(一):SVD分解

文章目录 0 参考链接(尊重原著)1 SVD分解原理2 SVD分解意义3 SVD分解的应用4 SVD数学举例5 为什么Ax0的解为最小奇异值对应的向量? 0 参考链接(尊重原著) 下面这个讲的很好很全面 视觉SLAM常见的QR分解SVD分解等矩阵分…

详解SVD分解过程

转 如何让奇异值分解(SVD)变得不“奇异”? 红色石头 发布于 2018-08-29 分类:机器学习 阅读(144) 评论(0) 如何让奇异值分解(SVD)变得不“奇异”?-红色石头的个人博客 http://redstonewill.com/1529/ 在之前的一篇文章:通俗解…

奇异值分解(SVD)原理详解及推导

转载请声明出处http://blog.csdn.net/zhongkejingwang/article/details/43053513 在网上看到有很多文章介绍SVD的,讲的也都不错,但是感觉还是有需要补充的,特别是关于矩阵和映射之间的对应关系。前段时间看了国外的一篇文章,叫A S…

奇异值分解(SVD)原理

奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总…

SVD(奇异值分解)

一、SVD(奇异值分解 Singular Value Decomposition) 1.1、基本概念: (1)定义:提取信息的方法:奇异值分解Singular Value Decomposition(SVD) (2&#xff0…

SVD分解

一、SVD简介 Singular Value Decomposition(奇异值分解,SVD)是一种重要的矩阵分解技术,可以将一个矩阵分解为三个矩阵的乘积。SVD的应用广泛,包括数据降维、矩阵逆运算、推荐系统等领域。 给定一个矩阵A,SV…

如何快速搭建个人网站(服务器配置篇)

关于服务器的购买和域名注册可以参考我的这篇博客 在使用之前,建议小白用户先下载一个Vmware 安装一个Ubuntu的虚拟环境学习一下linux的基础命令。 一、远程服务器的连接 服务器购买好了以后我们需要进行远程连接我们的服务器, 我个人推荐windows用…