【机器学习中的数学基础】矩阵特征值、特征向量和特征值分解的几何意义

article/2025/9/25 2:53:43

【机器学习中的数学基础】矩阵特征值、特征向量和特征值分解的几何意义

在《机器学习》西瓜书中的第十章提到了“多维缩放”(简称MDS)方法,该方法是一种经典的的降维方法。此方法的目标是获得样本在 d ′ d^{'} d维空间的表示,且任意两个样本在 d ′ d^{'} d维空间中的欧式距离等于原始空间中的距离。

在介绍该方法时提到了特征值分解这一概念,在线性代数的课程学习中,重点放在了如何求解特征值和特征值分解,对于其表示的数学含义而不求甚解,因此,本文就矩阵的特征值、特征向量以及特征值的分解所具有的几何意义做出解释。

相关的参考
特征向量与特征值的本质(B站)
机器学习中的数学基础:(1)实际应用中矩阵特征值与特征向量的几何意义

1、特征值和特征向量的几何意义

对于特征值和特征向量的本质不清楚的可观看上述的b站视频,实际上,

如果存在某个或某些向量在 A A A作用之后,它只是伸长或者缩短,其位置仍停留在其原来张成的直线上,那么称之为 A A A特征向量,伸长或者缩短的倍数称为对应特征向量的特征值

从几何意义上讲,特征向量描述了矩阵对应的线性变换的主要变换方向 。线性变换对向量的作用是伸缩(新的长度)和旋转(新的方向),旋转会消减拉伸的作用,特征向量只有伸缩没有旋转,它就代表了这个线性变换的主要方向;

那么特征值就是描述该方向上的变换速度(倍数)所以把特征值排序,从大到小的特征值及其特征向量能近似地描述原矩阵的主变换方向和变换速度。

2、特征值分解的几何意义

特征值分解是找最相似的矩阵:

特征值分解是将一个矩阵分解为如下形式: A = Q ∑ Q − 1 A=Q∑Q^{-1} A=QQ1
其中, Q Q Q是这个矩阵A的特征向量组成的矩阵, Σ Σ Σ是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。也就是说矩阵 A A A的信息可以由其特征值和特征向量表示。

对于矩阵为高维的情况下,那么这个矩阵就是高维空间下的一个线性变换。可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前 N N N个特征向量,那么就对应了这个矩阵最主要的 N N N个变化方向。我们利用这前 N N N个变化方向,就可以近似这个矩阵(变换)。

3、特征值分解在图像压缩的应用

具体应用在图像压缩上,比如说,有这么一副512×512的图片(方阵才有特征值),这个图片可以放到一个矩阵里面去,就是把每个像素的颜色值填入到一个512×512512×512的 A 矩阵中。根据之前的矩阵对角化A=p,其中为对角阵,对角线上是从大到小排列的特征值,我们只保留前面50个的特征值(也就是最大的50个,其实也只占了所有特征值的百分之十),其它的都填0,重新计算矩阵后,利用新得到的矩阵,进行恢复图像,效果仍然与原图像差不多。
在这里插入图片描述


http://chatgpt.dhexx.cn/article/22lpjRqK.shtml

相关文章

python — numpy计算矩阵特征值,特征向量

文章目录 python — numpy计算矩阵特征值,特征向量一、数学演算二、numpy实现 转载请备注原文出处,谢谢:https://blog.csdn.net/pentiumCM/article/details/105652853 python — numpy计算矩阵特征值,特征向量 一、数学演算 示例…

利用矩阵特征值求解多项式的根

在PnL方法求相机位姿,Point—to—Line方法的点云匹配问题中,会将其中某一个参数的求解建模成求一个多项式的根。如下式所示: (1) 那么求解这样的一个多项式的根应该怎么做呢?参考文献1告诉我们可以利用矩阵特征值方法来求解&…

计算二阶矩阵特征值的技巧

1.计算二阶矩阵特征值的技巧 笔记来源:计算二阶矩阵特征值的妙计 1.1 平均特征值 1.2 特征值的积 1.3 求解特征值 根据以上两点,求出特征值 m m m 为平均特征值 λ 1 λ 2 2 \frac{\lambda_1\lambda_2}{2} 2λ1​λ2​​(两个特征值 λ…

矩阵特征值和特征向量详细计算过程

1.矩阵特征值和特征向量定义 A为n阶矩阵,若数λ和n维非0列向量x满足Axλx,那么数λ称为A的特征值,x称为A的对应于特征值λ的特征向量。式Axλx也可写成( A-λE)x0,并且|λE-A|叫做A 的特征多项式。当特征多项式等于0的时候&#x…

从零开始学数据分析之——《线性代数》第五章 矩阵的的特征值

5.1 矩阵的特征值与特征向量 5.1.1 矩阵的特征值与特征向量 定义:设A是n阶方阵,若对于数,存在非零列向量,使得 则称为矩阵A的一个特征值,为矩阵A的对应于特征值的特征向量 定义:称为A的特征多项式&#x…

理解矩阵和特征向量的本质

理解矩阵和特征向量的本质 原文地址 最近复习矩阵论中,又是一堆定理和证明突然发现学了这么常时间的矩阵论、线性代数,记住的只是一堆莫名其妙的定理而已,一些本质的东西都没有搞清楚。 比如,为什么要有矩阵,它仅仅是…

机器学习(一):线性回归之最小二乘法

文章目录 专栏导读1、线性回归简介2、最小二乘法原理3、实战案例专栏导读 ✍ 作者简介:i阿极,CSDN Python领域新星创作者,专注于分享python领域知识。 ✍ 本文录入于《机器学习案例》,本专栏精选了经典的机器学习算法进行讲解,针对大学生、初级数据分析工程师精心打造,对…

回归评价指标:均方误差根(RMSE)和R平方(R2)

转载自:http://blog.csdn.net/lsldd/article/details/41251583 做回归分析,常用的误差主要有均方误差根(RMSE)和R-平方(R2)。 RMSE是预测值与真实值的误差平方根的均值。这种度量方法很流行(N…

回归标准差和残差平方和的关系_用回归来理解方差分析(三):Ⅰ型平方和与Ⅲ型平方和...

阅读提示 为了更好理解这篇文章,你可能需要了解:两因素方差分析 平方和的分解 方差分析模型 虚拟变量 推荐先阅读 文中涉及到的代码只是为了验算,如果不熟悉代码的同学可以忽略,直接看结果就行。也可以自己动手尝试用SPSS验算。 1…

回归中的相关度和R平方值 学习笔记

回归中的相关度和R平方值 自变量x和因变量y的相关度 1.皮尔逊相关系数(Pearson Correlation Coefficient): 1.1衡量两个值线性相关强度的量 1.2取值范围[-1,1]: 正向相关: >0,负向相关: <0,无相关性: 0 公式&#xff1a;correlation&#xff0c; correlationvariance(Co…

回归中的相关度和R平方值——学习笔记

1. 相关度 相关度又叫 皮尔逊相关系数 (Pearson Correlation Coefficient): 衡量两个值线性相关强度的量 取值范围 [-1, 1]: 正向相关: >0, 负向相关&#xff1a;<0, 无相关性&#xff1a;0 cov&#xff1a;协方差 Var&#xff1a;方差 2. R平方值: 模型可以解释为…

【DOE】--方差、自由度、回归分析

系列文章目录 文章目录 系列文章目录前言一、假设检验1.定义2.假设检验的类别3.假设检验的步骤 二、方差分析1.定义2.方差的引入3.方差的计算4.失拟5.弯曲6.纯误差7.自由度8.模型的理解9.其它问题 三、DOE1.中心点2.模型的简化 四、回归与相关1.直线回归分析2.直线相关分析3.直…

多元线性回归模型预测房价

文章目录 一、多元线性回归模型预测房价1.基础包导入2.变量探索3.多元线性回归建模4.模型优化二、用Excel重做上面的多元线性回归&#xff0c;求解回归方程三、用机器学习库Sklearn库重做上面的多元线性归四、参考文献 一、多元线性回归模型预测房价 1.基础包导入 import pan…

怎么从SPSS的分析结果中得出回归方程?

回归方程是通过分析样本数据得到的变量间的回归关系的数字表达式。回归方程拟合程度足够好的话&#xff0c;可运用自变量来预测因变量的数值。比如&#xff0c;我们经常会构建销售额与客流量间的回归方程&#xff0c;以预测一定客流量下的销售额。 那么&#xff0c;在进行回归…

统计推断——假设检验——线性回归——R的平方可以为负数

在《统计推断——假设检验——简单线性回归分析》&#xff0c;我们学到了一个回归模型评价指标&#xff1a;决定系数。 回顾一下决定系数的公式&#xff1a;&#xff0c;其中代表离差总平方和&#xff0c;代表残差平方和&#xff0c;代表回归平方和&#xff0c;各指标计算如下…

决定系数R2;残差平方和SSE;回归平方和SSR总平方和SST;

https://theonegis.blog.csdn.net/article/details/85991138 循着这篇博客翻墙找了很多博客看&#xff1b;受益匪浅&#xff0c;说一下自己的理解。 首先&#xff0c;决定系数R2是对于线性模型来说的。 由于我是在预测数据集上进行计算&#xff0c;所以产生了R2是用在训练数据…

回归中的相关度和R平方值

机器学习中关于回归模型有时候需要衡量自变量和因变量之间的相关度&#xff0c;接下来介绍两个衡量相关度的指标&#xff1a; 皮尔逊相关系数 它是用来衡量两个变量之间的相关度的&#xff1b; 取值&#xff1a;[-1,1] 该值>0 表示两个变量之间是正相关的&#xff0c;值…

机器学习(四)R平方和回归模型的评价

一、R平方 1.Res剩余平方和 2.tot共平方和 3.R平方 R平方的取值范围为0-1&#xff0c;R平方越大说明模型越好 4.广义R平方 又称决定系数。调优的目的是让->Min。 自变量增加&#xff0c;不会降低R平方&#xff0c;要么持平要么升高&#xff08;拟合效果更好&#xff09; 广义…

线性回归之总离差平方和=回归平方和+残差平方和(TSS = ESS + RSS)及证明

假设有n个样本,分别为,样本的平均值记为 , 举个例子,例如现在观察到3个样本, 那么样本平均值: . 1、TSS 英文全称:Total Sum of Squares, 中文全称:总离差平方和,或者总平方和

线性回归模型评估:R-square(确定系数)、均方根、均方差

线性回归模型评估 通过几个参数验证回归模型 SSE(和方差&#xff0c;误差平方和) &#xff1a;The sum of squares due to errorMSE(均方差&#xff0c;方差)&#xff1a;Mean squared errorRMSE(均方根&#xff0c;标准差)&#xff1a;Root mean squared errorR-square(确定…