矩阵分解(四)——SVD分解

article/2025/9/26 21:35:13

目录

  • 矩阵相关术语
    • 共轭矩阵(Hermite阵)
    • 特征值
    • 相似矩阵
    • A^H^
    • A^H^A
    • 酉矩阵
    • 酉相抵(正交相抵)
    • 奇异值
    • 奇异值分解式
    • 特征分解
  • 奇异值分解
    • python代码实现
    • 验证结果 np.linalg.svd
  • 利用Python进行SVD分解对图像压缩

矩阵相关术语

共轭矩阵(Hermite阵)

当A = (ai,j)为复矩阵时,用 a ‾ \overline{a} a表示a的共轭复数,记 A ‾ \overline{A} A = ( a i j ‾ \overline{aij} aij),则 A ‾ \overline{A} A为A的共轭矩阵。
埃尔米特矩阵是相对其主对角线以复共轭方式对称,且Hermite阵主对角线上的元素必须是实数,实对称阵是Hermite阵的特例。如:

特征值

定义:设 A 是n阶方阵,如果存在数λ和非零n维列向量 x,使得 Ax=λx 成立,则称 λ 是矩阵A的一个特征值,x是矩阵A对应特征值λ的特征向量。

式Ax=λx也可写成( A-λE)X=0。这是n个未知数n个方程的齐次线性方程组,它有非零解的充分必要条件是系数行列式| A-λE|=0。系数行列式|A-λE|称为A的特征多项式。

  • 性质
  1. n阶方阵A=(aij)的所有特征根为λ1,λ2,…,λn(包括重根):
  2. 若λ是可逆阵A的一个特征根,x为对应的特征向量,则1/λ 是A的逆的一个特征根,x仍为对应的特征向量。
  3. 若 λ是方阵A的一个特征根,x为对应的特征向量,则λ 的m次方是A的m次方的一个特征根,x仍为对应的特征向量。
  4. 设λ1,λ2,…,λm是方阵A的互不相同的特征值。xj是属于λi的特征向量( i=1,2,…,m),则x1,x2,…,xm线性无关,即不相同特征值的特征向量线性无关
  • 特征值与特征向量的求法
  1. 利用| A-λE| = 0,求出特征值λ
  2. 根的维数一般是一维。即kξ(ξ为基础解系),如果重根,则维数是特征根的重数,k1ξ1+k2ξ2+…

相似矩阵

设A,B都是n阶矩阵,若存在可逆矩阵P,使P(-1)AP=B,则称B是A的相似矩阵, 并称矩阵A与B相似,记为A~B。

  • 性质
  1. 反身性:A~ A
  2. 对称性:若A~ B,则 B~ A
  3. 传递性:若A~ B,B~ C,则A~ C
  4. 若A~ B,则r(A)=r(B),|A|=|B|,tr(A)=tr(B),两者拥有同样的特征值,尽管相应的特征向量一般不同
  5. 若A~ B,且A可逆,则B也可逆,且B~ A。

AH

AH表示A(A是一个复矩阵)的共轭转置(对每个元素取共轭,然后对整个矩阵转置).
如果A是实矩阵,AH = AT

  • 性质
  1. xH AH = (Ax)H

AHA

定理:矩阵Am,n,R(A) = r,则AHA与AAH的特征值都是非负实数,所以其所有特征的算术平方根为矩阵A的奇异值。

  • 证明

x是n阶矩阵AHA的对应于特征值λ的特征向量,可得AHAx=λx,
xHAHAx = λxHx 即 (Ax,Ax) = λ(x,x)
因为(Ax,Ax)>= 0,(x,x)>= 0,所以特征值λ>=0。

  • 性质
  1. m×n矩阵A的奇异值的个数等于列数n(因AHA的阶数为n)
  2. A的非零奇异值的个数等于rankA(因rank(AHA)=rank(A))

酉矩阵

定义:若n阶复矩阵A满足AHA=AAH=E,则称A为酉矩阵。相对于实数矩阵,酉矩阵相当于正交矩阵,ATA=AAT=E

  • 性质
  1. AH = A−1(酉矩阵)
  2. |A| = 1 行列式为1
  3. 充分条件是矩阵A的n个列向量是两两正交的单位向量。

酉相抵(正交相抵)

定理:酉相抵的矩阵有相同的奇异值。

  • 证明

矩阵Am,n和矩阵Bm,n,若存在m阶酉矩阵U和n阶酉矩阵V,使得A = UBVH。由于UH=U-1,VH=V-1,所以可得:
AHA = VBHUHUBVH = V(BHB)V-1
所以可得 AHA与BHB是相似矩阵,即有相同的特征值。于是A与B有相同的奇异值。

  • 什么是酉相抵?

矩阵Am,n和矩阵Bm,n,若存在m阶酉矩阵U和n阶酉矩阵V,使得A = UBVH,则称矩阵A与B酉相抵。

奇异值

奇异值是矩阵里的概念,一般通过奇异值分解定理求得。设A为m*n阶矩阵,q=min(m,n),A*A的q个非负特征值的算术平方根叫作A的奇异值。

奇异值分解式

矩阵Am,n,rank(A) = r,则存在m阶酉矩阵U和n阶酉矩阵V,使得:

其中Σ=diag(σ1,σ 2,…,σr),且σ 1≥σ 2≥…≥σr>0,而σi(i=1,2,…,r)为矩阵A的正奇异值。

A的奇异值由A唯一确定,但酉矩阵U和V一般不唯一,故矩阵A的奇异值分解一般不是唯一的。

特征分解

对方阵 A 求取特征值和特征值对应的特征向量可以将方阵 A 进行特征分解为:

证明:假设方阵 A 有 n 个线性无关的特征向量 v1, v2, v3, … , vn,对应的特征值为 λ1, λ2, λ3, … , λn,令 V = ( v1, v2, v3, … , vn)

在进行特征分解时,一般将 V 的这 n 个特征向量标准化,即使得 V 中 n 个特征向量为标准正交基,满足:
VT = V-1 ,VTV = I
所以方阵 A 的特征分解公式为:

奇异值分解

矩阵的特征分解要求矩阵必须为方阵,那么对于不是方阵的矩阵而言则可以使用 SVD 进行分解,假设 A 是一个 m * n 的矩阵,则存在一个分解使得:

其中 U 为左奇异值矩阵,Λ 为矩阵 A 奇异值,除了主对角线上的元素以外全为0,V 为右奇异值矩阵

  • 求右奇异值矩阵

虽然矩阵 A 不是方阵,但是 ATA 是一个 n * n 的方阵,于是对 ATA 这个方阵进行特征值和特征向量计算则有:
ATA = VΛVT
上式的V也就是 SVD 公式中的 V 矩阵。

  • 求左奇异值矩阵

类似的,通过计算 AAT 方阵的特征值和特征向量可以得到 SVD 中的 U 矩阵。
AAT = (UΛVT)(UΛVT)T = UΛVTTUT = UΛ2UT
可以看到 AA T的特征向量就是 SVD 中的 U矩阵。

  • 求奇异值

可以看到 ATA 的特征向量就是 SVD 中的 V 矩阵,同时可以得到特征值矩阵等于奇异值矩阵的平方,也就是说特征值 λ 和奇异值 σ 存在如下关系:

python代码实现

  • 求右奇异值矩阵
import numpy as np
a = np.array([[1,0,1],[0,1,1],[0,0,0]],dtype = np.float)
np.set_printoptions(precision=4, suppress=True)
w,v = np.linalg.eigh(a.T.dot(a))  #w特征值、v特征向量
w_index = np.argsort(w)[::-1]  #返回逆序后的下标
w = np.sort(w)[::-1]
v = v[:,w_index]   #正交矩阵V
v.T

array([[-0.4082, -0.4082, -0.8165],
[ 0.7071, -0.7071, 0. ],
[ 0.5774, 0.5774, -0.5774]])

  • 求左奇异值矩阵
w,u = np.linalg.eigh(a.dot(a.T))  #w特征值、v特征向量
w_index = np.argsort(w)[::-1]  #返回逆序后的下标
w = np.sort(w)[::-1]
u = u[:,w_index]   #正交矩阵V
u

array([[ 0.7071, -0.7071, 0. ],
[ 0.7071, 0.7071, 0. ],
[ 0. , 0. , 1. ]])

  • 求奇异值矩阵
w,u = np.linalg.eigh(a.dot(a.T))  #w特征值、v特征向量
w_index = np.argsort(w)[::-1]  #返回逆序后的下标
w = np.sort(w)[::-1]
np.diag(np.sqrt(w))

array([[1.7321, 0. , 0. ],
[0. , 1. , 0. ],
[0. , 0. , 0. ]])

验证结果 np.linalg.svd

np.linalg.svd(a)

(array([[ 0.7071, -0.7071, 0. ],
[ 0.7071, 0.7071, 0. ],
[ 0. , 0. , 1. ]]),
array([ 1.7321, 1. , -0. ]),
array([[ 0.4082, 0.4082, 0.8165],
[-0.7071, 0.7071, 0. ],
[ 0.5774, 0.5774, -0.5774]]))

利用Python进行SVD分解对图像压缩

import numpy as np
import os
from PIL import Image
import matplotlib.pyplot as plt
A = Image.open("01.jpg", 'r') #(510, 320, 3)
a = np.array(A)
# 图片有RGB三原色组成,所以有三个矩阵
u_r, sigma_r, v_r = np.linalg.svd(a[:, :, 0])    # 奇异值分解 (510, 510) 、(320,) 、 (320, 320)
u_g, sigma_g, v_g = np.linalg.svd(a[:, :, 1])
u_b, sigma_b, v_b = np.linalg.svd(a[:, :, 2])
def restore(sigma, u, v, K):  # 奇异值、左特征向量、右特征向量m = len(u)  #高n = len(v[0])  #宽a = np.zeros((m, n))   #510, 320for k in range(K):uk = u[:, k].reshape(m, 1)  # 取矩阵U的第k+1列数据  (510,) 转为 (510,1)vk = v[k].reshape(1, n)    # 取矩阵V转置的第k+1行数据 (320,)转为  (1,320)a += sigma[k] * np.dot(uk, vk)   # 前 第k+1 个奇异值 ,且 k * U * Va = a.clip(0, 255)return np.rint(a).astype('uint8')# 仅使用前1个,2个,...,50个奇异值的结果
K = 20
j = 1
plt.figure(figsize=(15,8))
for k in range(1, K+1,2):R = restore(sigma_r, u_r, v_r, k)G = restore(sigma_g, u_g, v_g, k)B = restore(sigma_b, u_b, v_b, k)I = np.stack((R, G, B), axis=2)   # 将矩阵叠合在一起,生成图像i = Image.fromarray(I)plt.subplot(2,5,j)plt.imshow(i)plt.title('K ={} '.format(k))j +=1
plt.show()


http://chatgpt.dhexx.cn/article/iahrdJnq.shtml

相关文章

聊聊特征分解和SVD分解

矩阵分解 矩阵分解(decomposition,factorization):将矩阵拆分为多个矩阵的乘积的运算。矩阵的分解包括以下几种: 特征分解SVD分解PCAQR分解LU分解极分解 矩阵分解在数据压缩、推荐系统以及NLP等都有着比较广泛的应用。 特征分解 特征分解(eigendeco…

SVD奇异值分解

SVD分解 SVD分解是LSA的数学基础,本文是我的LSA学习笔记的一部分,之所以单独拿出来,是因为SVD可以说是LSA的基础,要理解LSA必须了解SVD,因此将LSA笔记的SVD一节单独作为一篇文章。本节讨论SVD分解相关数学问题&#xf…

矩阵分解 SVD分解

在认识SVD之前,先来学习两个相关的概念:正交矩阵和酉矩阵。 如果,则阶实矩阵称为正交矩阵。而酉矩阵是正交矩阵往复数域上的推广。 判断正交矩阵和酉矩阵的充分必要条件是:。或者说正交矩阵和酉矩阵的共轭转置和它的 …

SVD分解的推导,理解SVD分解及矩阵奇异值的几何意义

文章目录 SVD分解的证明推导从本质上理解SVD分解矩阵奇异值的几何意义 SVD分解的证明推导 理解SVD分解要解决的问题是什么? 从本质上理解SVD分解 从线性映射的矩阵表示角度,即从“抽象”->“具体”的角度去理解SVD分解。 矩阵奇异值的几何意义…

矩阵分解SVD原理

常用的经典矩阵分解算法: 经典算法PCA、SVD主题模型算法LDA概率矩阵分解PMF,由深度学习大牛Ruslan Salakhutdinov所写,主要应用于推荐系统中,在大规模的稀疏不平衡性Netflix数据集上取得较好的效果;非负矩阵分解&#…

精简易懂,30 分钟学会 SVD 矩阵分解,很强!

点击上方“小白学视觉”,选择加"星标"或“置顶” 重磅干货,第一时间送达SVD(Singular Value Decomposition)奇异值分解分解是机器学习中最重要的矩阵分解方法。 它能够将一个任意形状的矩阵分解成一个正交矩阵和一个对角矩阵以及另一个正交矩阵…

矩阵(一):SVD分解

文章目录 0 参考链接(尊重原著)1 SVD分解原理2 SVD分解意义3 SVD分解的应用4 SVD数学举例5 为什么Ax0的解为最小奇异值对应的向量? 0 参考链接(尊重原著) 下面这个讲的很好很全面 视觉SLAM常见的QR分解SVD分解等矩阵分…

详解SVD分解过程

转 如何让奇异值分解(SVD)变得不“奇异”? 红色石头 发布于 2018-08-29 分类:机器学习 阅读(144) 评论(0) 如何让奇异值分解(SVD)变得不“奇异”?-红色石头的个人博客 http://redstonewill.com/1529/ 在之前的一篇文章:通俗解…

奇异值分解(SVD)原理详解及推导

转载请声明出处http://blog.csdn.net/zhongkejingwang/article/details/43053513 在网上看到有很多文章介绍SVD的,讲的也都不错,但是感觉还是有需要补充的,特别是关于矩阵和映射之间的对应关系。前段时间看了国外的一篇文章,叫A S…

奇异值分解(SVD)原理

奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总…

SVD(奇异值分解)

一、SVD(奇异值分解 Singular Value Decomposition) 1.1、基本概念: (1)定义:提取信息的方法:奇异值分解Singular Value Decomposition(SVD) (2&#xff0…

SVD分解

一、SVD简介 Singular Value Decomposition(奇异值分解,SVD)是一种重要的矩阵分解技术,可以将一个矩阵分解为三个矩阵的乘积。SVD的应用广泛,包括数据降维、矩阵逆运算、推荐系统等领域。 给定一个矩阵A,SV…

如何快速搭建个人网站(服务器配置篇)

关于服务器的购买和域名注册可以参考我的这篇博客 在使用之前,建议小白用户先下载一个Vmware 安装一个Ubuntu的虚拟环境学习一下linux的基础命令。 一、远程服务器的连接 服务器购买好了以后我们需要进行远程连接我们的服务器, 我个人推荐windows用…

在废旧手机里搭建个人服务器

点击跳转微信公众号原文链接 欢迎关注公众号,会不定时发些有趣的干货文章,以及一些记录性的技术文章! 正文开始: 一、目的:给手机装上Linux系统,充当服务器使用 二、流程: 1、手机装好相关软件…

个人搭建网站的服务器选择

关于这方面之前一直准备分享一下心得,由于一直比较忙,各种想写的就各种耽搁了,今天给大家总结一下个人或小型企业站该如何选择网站服务器 首先,先弄清楚自己的需求和用途: 1、是建立一个静态页面还是动态页面&#xff…

如何利用云服务器搭建个人网站

去阿里云进入官网 aliyun.com 注册账号 小林同学在这里用阿里云演示,大家也可以去腾讯云、百度云注册等大型知名企业,步骤雷同,看个人喜欢 注册完,完善个人信息,进行实名认证 主页面 点击 最新活动 并找到 新手上路 和…

【Linux】零成本在家搭建自己的私人服务器解决方案

我这个人自小时候以来就特喜欢永久且免费的东西,也因此被骗过(花巨款买了永久超级会员最后就十几天)。 长大后骨子里也是喜欢永久且免费的东西,所以我不买服务器,用GitHubPage或者GiteePage搭建自己的静态私人博客&…

如何组装、搭建一台永久运行的个人服务器?

点击关注公众号,实用技术文章及时了解 来源:segmentfault.com/a/1190000021143144 一、前言 由于本人在这段时候,看到了一个叫做树莓派的东东,初步了解之后觉得很有意思,于是想把整个过程记录下来。 二、树莓派是什么&…

完全免费快速搭建个人www服务器

想拥有自己的web服务器吗?想把服务器放到自己家里吗?通过ADSL拨号也能建立个人的服务器吗?本文告诉你答案。 要建立自己的web服务器,需要两个最重要的工作: 1 让别人知道你的主机 目前访问Internet上主机的方式主要有…

用服务器建立个人网站

首先,我们需要购买云服务器和域名。 域名建议用.com后缀的(一般五十左右),想要便宜的域名可以买.top等后缀的(一般几块钱)。 点击这里购买域名 三丰云服务器的话,根据自己的需要购买&#xf…