矩阵分析:特征值分解

article/2025/9/25 1:30:17

矩阵分析:特征值分解

  • 前置知识
    • 空间变换
      • 伸缩
      • 旋转
    • 对称矩阵
      • 对称矩阵对角化
    • 正交矩阵
    • 向量的基
      • 基变换
      • 不同基下的向量变换
      • 逆矩阵
      • 不同基下的空间变换
    • 内积的几何意义
  • 特征值、特征向量
    • 特征值分解
      • 代码

前置知识

空间变换

伸缩

在这里插入图片描述

一个矩阵其实就是一个线性变换,因为一个矩阵乘以一个向量后得到的向量,其实就相当于将这个向量进行了线性变换。比如说下面的一个矩阵:
在这里插入图片描述
因为这个矩阵M乘以一个向量(x,y)的结果是:
在这里插入图片描述

旋转

在这里插入图片描述

除了伸缩变换,也可以进行旋转变换。

上面的矩阵是对称的,所以这个变换是一个对x,y轴的方向一个拉伸变换(每一个对角线上的元素将会对一个维度进行拉伸变换,当值>1时,是拉长,当值<1时时缩短),当矩阵不是对称的时候,假如说矩阵是下面的样子:
在这里插入图片描述

对称矩阵

对称矩阵(Symmetric Matrix)是指元素以主对角线为对称轴对应相等的矩阵,例如:

在这里插入图片描述

他的转置等于它本身

对称矩阵对角化

如果一个对称矩阵是实对称矩阵,就会存在正交矩阵P,与对角矩阵满足下列等式:
在这里插入图片描述
然后我们对等式两边左乘P,右乘P的逆矩阵,就会得到:
在这里插入图片描述
又因为正交矩阵的转置=它的逆矩阵,所以对称矩阵的对角化如下:
在这里插入图片描述

正交矩阵

在这里插入图片描述

  1. 正交矩阵的每一个行向量与其他行向量相互垂直(内积=0),每一个列向量与其他列向量相互垂直。
  2. 行向量或者列向量他与本身的内积=1,也就是长度=1(单位向量)。
  3. 正交矩阵的逆矩阵=它的转置矩阵

向量的基

假设有一个列向量A:=[3,2],如下图:

在这里插入图片描述

我们假设图中每个蓝色方格的单位为1,那么即使图中没有标注黄色向量是谁,我们也可以脱口而出他就是[3,2]。那么为什么我们可以直接看出他是谁呢?
答案也很简单,因为我们根据有一个参考依据,那就是坐标系(笛卡尔坐标系)。然而,这个二维坐标系他其实是由两个基向量:i ,j所组成的空间,其中:
i = [ 1 , 0 ] T , j = [ 0 , 1 ] T i=[1,0]^T ,j=[0,1]^T i=[1,0]T,j=[0,1]T
我们可以把A看成在i向量扩大三倍,j扩大2倍,然后让他们作向量加法:

A → = 3 ⋅ i → + 2 j → = 3 [ 1 0 ] + 2 [ 0 1 ] = [ 1 0 0 1 ] [ 3 2 ] = [ 3 2 ] \begin{aligned}\overrightarrow{A}=3\cdot \overrightarrow{i}+2\overrightarrow{j}=3\begin{bmatrix} 1 \\ 0 \end{bmatrix}+2\begin{bmatrix} 0 \\ 1 \end{bmatrix}\\ =\begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}\begin{bmatrix} 3 \\ 2 \end{bmatrix}\\ =\begin{bmatrix} 3 \\ 2 \end{bmatrix}\end{aligned} A =3i +2j =3[10]+2[01]=[1001][32]=[32]

在这里插入图片描述

基变换

假设有两个人,小泽,小乐,他们看待问题的‘角度’不认同,也、也就是基不同,其中小泽的基向量为:

在这里插入图片描述
而小乐的基向量为为:b1 ,b2,b1b2这两个向量在小乐看来数值就是

在这里插入图片描述

然而在小泽看来b1,b2数值为:
在这里插入图片描述

上面的向量A,在小泽的角度来看,就是[3,2],然而在小乐的角度看就变成了:[5/3,1/3]。

在这里插入图片描述

它们之所以认为这个向量是不同的,因为它们看待问题的角度不同,‘横看成岭侧成峰,远近高低各不同’,也就是基向量不同。

不同基下的向量变换

假设小泽角度下的向量B:
在这里插入图片描述

现在我们知道小泽与小乐的基向量,还知道了向量B在小泽中的数值表示,那么我们如果把小泽角度看的向量B,用小乐的角度表示,计算公式应该为:
在这里插入图片描述
于是,我们就把小泽角度下的向量B,转换成了小乐角度的向量。

逆矩阵

请添加图片描述
A的逆矩阵代表的含义就是A变换的逆过程。
求解 Ax =b的几何意义,就是找到一个向量x使得在A的变换下,x被映射为b。如果A为满秩矩阵,则有唯一解 x = A − 1 b x=A^{-1}b x=A1b ,也就是对b施加逆变换即可找到x。

在上面我们说在小泽的眼中,小乐的基向量b1,b2就是:
在这里插入图片描述
那么在小乐的眼中(以b1,b2为基向量),小泽的基向量i,j 如何表示呢?
这时候就用到了逆矩阵,把小泽的视角下的小乐的基向量的表示切换到小乐的视角小泽基向量的表示,需要用到上图矩阵做变换,那么我们反过来,就得到:
在这里插入图片描述

不同基下的空间变换

在上面我们已经介绍了什么是不同基下如何转换向量,下面我们介绍我们在不同基下的空间变换。
在小泽的视角中,我们如果想把坐标系逆时针旋转90度,如下图:
在这里插入图片描述
这个变换在小泽的视角下用矩阵A表示则是:
在这里插入图片描述
那么我们想做的就是知道:在小乐的视角下这个变换矩阵怎么表示呢?
现在我们已经有的是:二者的基向量,小泽的旋转矩阵。
我们的流程是:

  1. 在小乐的视角下找到一组向量
  2. 把这组向量用小泽的视角表示
  3. 然后把这向量通过旋转矩阵得到旋转后的向量
  4. 把旋转后的向量通过逆矩阵返回到小乐的视角

其中P为小乐视角下小泽基向量的表示,A为旋转矩阵,P的逆矩阵是小泽视角下小乐基向量的表示。
在这里插入图片描述
其中M就是我们要的小乐视角下的旋转矩阵,这就表示了不同基向量下的相同变换的相互转化。
在这里插入图片描述

内积的几何意义

向量与基向量的内积,就是向量在基向量方向上的投影坐标。

点乘(Dot Product)的结果是点积,又称数量积或标量积(Scalar Product)。在空间中有两个向量:
在这里插入图片描述
从代数角度看,点积是对两个向量对应位置上的值相乘再相加的操作,其结果即为点积。
在这里插入图片描述
从几何角度看,点积是两个向量的长度与它们夹角余弦的积。

在这里插入图片描述

特征值、特征向量

在这里插入图片描述

向量x1,x2在矩阵A的作用下进行了空间变换,x1–>Ax1 , x2–> Ax2
其中Ax2与x2的方向一直,说明矩阵A只对x2起到了伸缩作用,我们把Ax2写成大小方向的表达式, λ x 2 \lambda x_2 λx2

在这里插入图片描述

于是我们就是:lambda 为变换矩阵A的特征值,x2为变换矩阵A lambda这个特征值对应的特征向量。

特征值分解

特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征的方向。
如果说一个向量v是一个方阵A的特征向量,将一可以表示成下面形式
A v = λ v Av=\lambda v Av=λv
λ \lambda λ为特征向量v的特征值,特征值分解是将一个矩阵分解为如下形式:
A = Q ∑ Q − 1 A=Q\sum Q^{-1} A=QQ1
其中Q是这个矩阵A的特征向量所组成的矩阵, ∑ \sum 是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值有大到小排列,这些特征值所对应的特征向量就是描述这个矩阵变化方向,(从主要的变化到次要的变化排序)。也就是说矩阵A的信息可以由其特征值和特征向量表示。

对于矩阵为高纬的情况下,那么这个矩阵就是高维空间下的一个线性变换,可以想像,这个变化也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那就对应了这个矩阵最主要的N个变化方向,我们利用这前N个变化方向,就可以近似这个矩阵(变换)。

代码

import numpy as np
A = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
V, U = np.linalg.eig(A)
print(V)
print(U)
# 特征值分解的应用
1. PCA
2. SVD
3. 图像压缩
4. 控制系统

http://chatgpt.dhexx.cn/article/EDifCbnW.shtml

相关文章

关于矩阵特征值的理解

好久没看矩阵相关的东西&#xff0c;&#xff0c;&#xff0c;都忘光了&#xff0c;&#xff0c;&#xff0c;&#xff0c; 用运动来理解描述矩阵。 如何理解矩阵特征值&#xff1f; - 马同学的回答 - 知乎https://www.zhihu.com/question/21874816/answer/181864044 行列式是…

矩阵特征值求法实例

矩阵特征值 设 A 是n阶方阵&#xff0c;如果存在数m和非零n维 列向量 x&#xff0c;使得 Axmx 成立&#xff0c;则称 m 是矩阵A的一个特征值&#xff08;characteristic value)或 本征值&#xff08;eigenvalue)。 矩阵特征值方法 对于矩阵A&#xff0c;由AXλ 0X&#xff0c;λ…

MATLAB中有关矩阵特征值和特征向量的计算

在MATLAB语言中&#xff0c;求矩阵的特征值和特征向量需要用到两个函数&#xff1a;eig()、diag() diag():可生成一个对角矩阵 调用eig函数的格式为&#xff1a; [x,y]eig(A) 其中矩阵y的对角线元素存储的是A的所有特征值&#xff0c;且从小到大排列&#xff1b;而矩阵x的每一…

如何理解矩阵特征值的意义?

如何理解矩阵特征值的意义? 毕业多年,曾经有同事问我该如何理解特征值的意义? 当时,实在羞愧,我一学数学的,真不知该如何回答。 极力回想,也只能以“特征值的求法、步骤…bla…bla…”应付了事, 答非所问,简直了得! 这样的答案教科书里写得清清楚楚,网上Google…

线性代数及其应用:经典矩阵特征值证明

文章目录 前言实对称矩阵正交方阵实斜对称矩阵厄米矩阵正定矩阵相似矩阵投影矩阵反射矩阵Rank-1矩阵逆矩阵矩阵线性变换矩阵的n次方的稳定性e的矩阵次方的稳定性马尔科夫矩阵循环置换特征值分解谱定理Jordan标准型奇异值分解 前言 这里记录一下一些经典矩阵的特征值证明&#x…

数值分析 python_数值分析实验之矩阵特征值(Python代码)

一、实验目的 1.求矩阵的部分特征值问题具有十分重要的理论意义和应用价值; 2.掌握幂法、反幂法求矩阵的特征值和特征向量以及相应的程序设计; 3.掌握矩阵QR分解 二、实验原理 幂法是一种计算矩阵主特征值(矩阵按模最大的特征值)及对应特征向量的迭代方法, 特别是用于大型稀疏…

【机器学习中的数学基础】矩阵特征值、特征向量和特征值分解的几何意义

【机器学习中的数学基础】矩阵特征值、特征向量和特征值分解的几何意义 在《机器学习》西瓜书中的第十章提到了“多维缩放”&#xff08;简称MDS&#xff09;方法&#xff0c;该方法是一种经典的的降维方法。此方法的目标是获得样本在 d ′ d^{} d′维空间的表示&#xff0c;且…

python — numpy计算矩阵特征值,特征向量

文章目录 python — numpy计算矩阵特征值&#xff0c;特征向量一、数学演算二、numpy实现 转载请备注原文出处&#xff0c;谢谢&#xff1a;https://blog.csdn.net/pentiumCM/article/details/105652853 python — numpy计算矩阵特征值&#xff0c;特征向量 一、数学演算 示例…

利用矩阵特征值求解多项式的根

在PnL方法求相机位姿&#xff0c;Point—to—Line方法的点云匹配问题中&#xff0c;会将其中某一个参数的求解建模成求一个多项式的根。如下式所示&#xff1a; (1) 那么求解这样的一个多项式的根应该怎么做呢&#xff1f;参考文献1告诉我们可以利用矩阵特征值方法来求解&…

计算二阶矩阵特征值的技巧

1.计算二阶矩阵特征值的技巧 笔记来源&#xff1a;计算二阶矩阵特征值的妙计 1.1 平均特征值 1.2 特征值的积 1.3 求解特征值 根据以上两点&#xff0c;求出特征值 m m m 为平均特征值 λ 1 λ 2 2 \frac{\lambda_1\lambda_2}{2} 2λ1​λ2​​&#xff08;两个特征值 λ…

矩阵特征值和特征向量详细计算过程

1.矩阵特征值和特征向量定义 A为n阶矩阵&#xff0c;若数λ和n维非0列向量x满足Axλx&#xff0c;那么数λ称为A的特征值&#xff0c;x称为A的对应于特征值λ的特征向量。式Axλx也可写成( A-λE)x0&#xff0c;并且|λE-A|叫做A 的特征多项式。当特征多项式等于0的时候&#x…

从零开始学数据分析之——《线性代数》第五章 矩阵的的特征值

5.1 矩阵的特征值与特征向量 5.1.1 矩阵的特征值与特征向量 定义&#xff1a;设A是n阶方阵&#xff0c;若对于数&#xff0c;存在非零列向量&#xff0c;使得 则称为矩阵A的一个特征值&#xff0c;为矩阵A的对应于特征值的特征向量 定义&#xff1a;称为A的特征多项式&#x…

理解矩阵和特征向量的本质

理解矩阵和特征向量的本质 原文地址 最近复习矩阵论中&#xff0c;又是一堆定理和证明突然发现学了这么常时间的矩阵论、线性代数&#xff0c;记住的只是一堆莫名其妙的定理而已&#xff0c;一些本质的东西都没有搞清楚。 比如&#xff0c;为什么要有矩阵&#xff0c;它仅仅是…

机器学习(一):线性回归之最小二乘法

文章目录 专栏导读1、线性回归简介2、最小二乘法原理3、实战案例专栏导读 ✍ 作者简介:i阿极,CSDN Python领域新星创作者,专注于分享python领域知识。 ✍ 本文录入于《机器学习案例》,本专栏精选了经典的机器学习算法进行讲解,针对大学生、初级数据分析工程师精心打造,对…

回归评价指标:均方误差根(RMSE)和R平方(R2)

转载自&#xff1a;http://blog.csdn.net/lsldd/article/details/41251583 做回归分析&#xff0c;常用的误差主要有均方误差根&#xff08;RMSE&#xff09;和R-平方&#xff08;R2&#xff09;。 RMSE是预测值与真实值的误差平方根的均值。这种度量方法很流行&#xff08;N…

回归标准差和残差平方和的关系_用回归来理解方差分析(三):Ⅰ型平方和与Ⅲ型平方和...

阅读提示 为了更好理解这篇文章&#xff0c;你可能需要了解&#xff1a;两因素方差分析 平方和的分解 方差分析模型 虚拟变量 推荐先阅读 文中涉及到的代码只是为了验算&#xff0c;如果不熟悉代码的同学可以忽略&#xff0c;直接看结果就行。也可以自己动手尝试用SPSS验算。 1…

回归中的相关度和R平方值 学习笔记

回归中的相关度和R平方值 自变量x和因变量y的相关度 1.皮尔逊相关系数(Pearson Correlation Coefficient): 1.1衡量两个值线性相关强度的量 1.2取值范围[-1,1]: 正向相关: >0,负向相关: <0,无相关性: 0 公式&#xff1a;correlation&#xff0c; correlationvariance(Co…

回归中的相关度和R平方值——学习笔记

1. 相关度 相关度又叫 皮尔逊相关系数 (Pearson Correlation Coefficient): 衡量两个值线性相关强度的量 取值范围 [-1, 1]: 正向相关: >0, 负向相关&#xff1a;<0, 无相关性&#xff1a;0 cov&#xff1a;协方差 Var&#xff1a;方差 2. R平方值: 模型可以解释为…

【DOE】--方差、自由度、回归分析

系列文章目录 文章目录 系列文章目录前言一、假设检验1.定义2.假设检验的类别3.假设检验的步骤 二、方差分析1.定义2.方差的引入3.方差的计算4.失拟5.弯曲6.纯误差7.自由度8.模型的理解9.其它问题 三、DOE1.中心点2.模型的简化 四、回归与相关1.直线回归分析2.直线相关分析3.直…

多元线性回归模型预测房价

文章目录 一、多元线性回归模型预测房价1.基础包导入2.变量探索3.多元线性回归建模4.模型优化二、用Excel重做上面的多元线性回归&#xff0c;求解回归方程三、用机器学习库Sklearn库重做上面的多元线性归四、参考文献 一、多元线性回归模型预测房价 1.基础包导入 import pan…