第十章 Supervised PCA

article/2025/8/27 9:57:34

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
supervised pca很简单粗暴,计算 X X X的每一个纬度和 Y Y Y的相关性,取一个阈值,丢掉一些纬度,然后用普通的pca降维。


如何计算两个随机变量的相关性/相似性?
两个随机变量 X , Y X,Y X,Y,有一个函数 ϕ \phi ϕ,可以把一维随机变量映射到高维空间,映射后两个向量均值的距离可以表示两个随机变量的相关性。
∣ ∑ i = 1 n ϕ ( x i ) − ∑ j = 1 m ϕ ( y i ) ∣ 2 = ( 1 n ∑ i ϕ ( x i ) − 1 m ∑ j ϕ ( y j ) ) T ( 1 n ∑ i ϕ ( x i ) − 1 m ∑ j ϕ ( y j ) ) = 1 n 2 ∑ i , j K ( x i , x j ) + 1 m 2 ∑ i j K ( y i , y j ) − 2 m n ∑ i , j K ( x i , x j ) \begin{aligned} &|\sum_{i=1}^n \phi(x_i)-\sum_{j=1}^m \phi(y_i)|^2 \\ =&(\frac{1}{n}\sum_i \phi(x_i)-\frac{1}{m}\sum_j \phi(y_j))^T(\frac{1}{n}\sum_i \phi(x_i)-\frac{1}{m}\sum_j \phi(y_j)) \\ =&\frac{1}{n^2}\sum_{i,j}K(x_i,x_j)+\frac{1}{m^2}\sum_{ij}K(y_i,y_j)-\frac{2}{mn}\sum_{i,j}K(x_i,x_j) \end{aligned} ==i=1nϕ(xi)j=1mϕ(yi)2(n1iϕ(xi)m1jϕ(yj))T(n1iϕ(xi)m1jϕ(yj))n21i,jK(xi,xj)+m21ijK(yi,yj)mn2i,jK(xi,xj)
K K K可以取RBF K ( x i , x j ) = e − ∣ x i − x j ∣ 2 r K(x_i,x_j)=e^{-\frac{|x_i-x_j|^2}{r}} K(xi,xj)=erxixj2
这就是MMD,Maximun Mean distance.


判断两个随机变量的相关性 ∣ P ( x , y ) − P ( x ) P ( y ) ∣ 2 |P(x,y)-P(x)P(y)|^2 P(x,y)P(x)P(y)2,这个叫做HSIC
在这里插入图片描述
在这里插入图片描述


dataset X d ∗ n , Y q ∗ n X_{d*n},Y_{q*n} Xdn,Yqn, { ( x i , y i ) } i = 1 n \{(x_i,y_i)\}_{i=1}^n {(xi,yi)}i=1n x i ∈ R d , y i ∈ R q x_i\in R^d,y_i \in R^q xiRd,yiRq.
K K K is an n by n matrix as the result of applying a kernel K on data set X.
B B B is an n by n matrix as the result of apply a kernel function B on data set Y.
T r ( K H B H ) Tr(KHBH) Tr(KHBH) is a measure of dependence.

  • Goal: find a linear transformation U, such that U T X U^TX UTX has maximum dependence to Y.
  • make a linear kernel on U T X U^TX UTX
  • max ⁡ U 1 ( n − 1 ) 2 T r ( X T U U T X H B H ) \max_U \frac{1}{(n-1)^2}Tr(X^TUU^TXHBH) maxU(n1)21Tr(XTUUTXHBH)
  • max ⁡ U T r ( U T X H B H X T U ) \max_U Tr(U^TXHBHX^TU) maxUTr(UTXHBHXTU) add a constraint U T U = I U^TU=I UTU=I
  • U will be the top p eignenvectors of X H B H X T XHBHX^T XHBHXT
    X H XH XH~ ( X − X ˉ ) (X-\bar{X}) (XXˉ)
    在这里插入图片描述
    在这里插入图片描述
    kernel supervised pca

待续,不是很理解


http://chatgpt.dhexx.cn/article/sKx4mE6b.shtml

相关文章

学习笔记|BERT——自监督学习的典范

1. 自监督学习的概念 在机器学习中,最常见的是监督学习(Supervised learning)。假设模型的输入是 x x x,输出是 y y y,我们如何使模型输出我们期望的 y y y呢?我们得拥有已标注的(label&#x…

supervised使用教程

安装 平台要求 引自官网(supervised.org/introductio…):Supervisor已经过测试,可以在Linux(Ubuntu 9.10),Mac OS X(10.4 / 10.5 / 10.6)和Solaris(对于Int…

如何使用镜像网站?

1. 使用清华大学镜像网站下载镜像 官网:清华大学镜像站 例如centOS: 1)查找centOS 2)找到对应的版本号 3)找到镜像地址 4)找到自己要下载的版本 DVD:标准版 mini:迷你版 everyt…

如何快速镜像一个网站

仅需下述几个步骤即可快速镜像一个网站,镜像的内容包括html,js,css,image等静态页面资源,暂时无法镜像有用户交互的动态页面。 1、安装wget工具,以ubuntu系统为例 sudo apt-get install wget 2、下载网站…

【数学与算法】泰勒公式_线性化_雅各比矩阵_黑塞矩阵

本文的所涉及的知识点,如果有相关知识盲区,请参考: 微分方程通杀篇 如何区分线性系统与非线性系统 本文是观看B站视频【工程数学基础】2_线性化_泰勒级数_泰勒公式所作的笔记。 其中, k k k 是第k个点, n n n是指每个点…

机器学习中的数学基础 Day1

O(n) o(n) order&#xff1a;阶&#xff0c;多次式阶&#xff0c;x^2x1 阶2 f(x)O(g(x))&#xff1a;存在x0、M&#xff0c;使得x>x0时&#xff0c;f(x)<Mg(x) 2x^2 O(x^2),M2,x0任意 x^2x1 O(x^2),M2,x010 f(x)o(g(x)):对于任意的ε&#xff0c;存在x0&#xff0…

Hessian矩阵正定与函数凹凸性的关系

1. 从矩阵变换的角度 首先半正定矩阵定义为: 其中X 是向量&#xff0c;M 是变换矩阵 我们换一个思路看这个问题&#xff0c;矩阵变换中&#xff0c;代表对向量 X进行变换&#xff0c;我们假设变换后的向量为Y&#xff0c;记做 于是半正定矩阵可以写成&#xff1a; 这个是不是很…

Jacobian and Hessian(雅克比矩阵和海塞矩阵)

雅克比矩阵&#xff08;Jacobian &#xff09; 雅可比矩阵 是一阶偏导数以一定方式排列成的矩阵, 其行列式称为雅可比行列式。 假设 F : R n → R m F: R_n \to R_m F:Rn​→Rm​ 是一个从欧式 n 维空间转换到欧式 m 维空间的函数. 这个函数由 m 个实函数组成:&#xff0c;记…

雅可比(jacobian)、黑塞矩阵(Hessian)

一、雅克比矩阵 雅可比矩阵和行列式&#xff08;Jacobian&#xff09;_雅可比行列式_JasonKQLin的博客-CSDN博客 在牛顿迭代法、L-M中求解非线性方程组&#xff0c;都会用到雅可比(一阶偏导数) 和黑塞矩阵&#xff08;2阶偏导数&#xff09;矩阵。 雅可比矩阵 是一阶偏导数以一…

math: 雅可比矩阵 黑塞矩阵

雅可比矩阵&#xff1a;一个多元函数的一阶偏导数以一定方式排列成的矩阵 黑塞矩阵&#xff1a;一个多元函数的二阶偏导数以一定方式排列成的矩阵 雅可比矩阵 在向量微积分中&#xff0c;雅可比 矩阵是一阶 偏导数以一定方式排列成的矩阵&#xff0c;其行列式称为 雅可比行列式…

黑塞矩阵 Hessian Matrix

分享一下我老师大神的人工智能教程!零基础,通俗易懂!http://blog.csdn.net/jiangjunshow 也欢迎大家转载本篇文章。分享知识,造福人民,实现我们中华民族伟大复兴! 在机器学习课程里提到了这个矩阵,那么这个矩阵是从哪里来,又是用来作什么用呢?先来看一…

黑塞矩阵(海森矩阵,Hessian Matrix)与牛顿法最优化

黑塞矩阵 黑塞矩阵&#xff08;Hessian Matrix&#xff09;&#xff0c;又译作海森矩阵、海瑟矩阵、海塞矩阵等&#xff0c;是一个多元函数的二阶偏导数构成的方阵&#xff0c;描述了函数的局部曲率。黑塞矩阵最早于19世纪由德国数学家Ludwig Otto Hesse提出&#xff0c;并以其…

鞍点的判断(黑森矩阵/黑塞矩阵)

判断鞍点的一个充分条件是&#xff1a;函数在一阶导数为零处&#xff08;驻点&#xff09;的黑塞矩阵为不定矩阵。 半正定矩阵&#xff1a; 所有特征值为非负。 半负定矩阵&#xff1a;所有特征值为非正。 不定矩阵&#xff1a;特征值有正有负。 容易解出特征值一个为2,一个为…

Hessian 矩阵(海塞矩阵)

1. 海塞矩阵定义&#xff1a; 它是一个由多变量实值函数的所有二阶偏导数组成的方块矩阵 2. 数学描述&#xff1a; 假设有一实值函数 f(x1,x2,…,xn) &#xff0c;如果 f的所有二阶偏导数都存在并在定义域内连续&#xff0c;那么函数 f的海塞矩阵为&#xff1a; 或者使用下…

函数凹凸性与黑塞矩阵

1 同济大学高等数学定义 2 国际上的定义 3 黑塞矩阵 1 同济大学高等数学定义 我们从几何上看到&#xff0c;在有的曲线弧上&#xff0c;如果任取两点&#xff0c;则联结这两点间的弦总位于这两点间的弧段的上方&#xff0c;如图3-8&#xff08;a&#xff09;&#xff1b;而有…

由黑塞(Hessian)矩阵引发的关于正定矩阵的思考

最近看论文&#xff0c;发现论文中有通过黑塞(Hessian)矩阵提高电驱系统稳定性的应用。所以本篇主要从Hessian矩阵的性质出发&#xff0c;对其中正定矩阵的判定所引发的想法进行记录。 (其实看论文出现黑塞很惊奇&#xff0c;因为前不久刚读了作家黑塞的《德米安&#xff1a;彷…

Hessian matrix黑塞矩阵(海森矩阵)和雅克比矩阵Jacobian matrix

对梯度再求导生成的矩阵为黑塞矩阵 雅克比矩阵是一个m*n的矩阵 目标函数的梯度的雅克比矩阵就是目标函数的Hessian矩阵。 对于黑塞矩阵的特征值&#xff1a;就是形容在该点附近特征向量的凹凸性。特征值越大&#xff0c;凸性越强。 如果是正定矩阵&#xff0c;则临界点处是一个…

黑塞矩阵和雅可比矩阵理解

文章目录 1&#xff1a;一元泰勒展开公式2&#xff1a;二元泰勒展开公式3&#xff1a;二元函数的黑塞矩阵4&#xff1a;多元函数的黑塞矩阵5&#xff1a;多元函数的雅可比矩阵&#xff08;Jacobian矩阵&#xff09;参考文献 个人笔记&#xff1a; 1&#xff1a;一元泰勒展开公…

正定矩阵、正定矩阵与极值的关系、黑塞矩阵、牛顿法

目录 正定矩阵 正定矩阵与极值的关系 黑塞矩阵&#xff08;Hessian Matrix&#xff09; 牛顿法 正定矩阵 &#xff08;1&#xff09;广义定义&#xff1a;设A是n阶方阵&#xff0c;如果对任何非零向量X&#xff0c;都有&#xff0c;其中 表示X的转置&#xff0c;就称A为正…

Hessian 矩阵(黑塞矩阵)以及hessian矩阵奇异的用法

Hessian Matrix&#xff08;黑塞矩阵、海森矩阵、海瑟矩阵、海塞矩阵 etc.&#xff09;,它是一个多元函数的二阶偏导数构成的方阵&#xff0c;用以描述函数的局部曲率。黑塞矩阵最早于19世纪由德国数学家Ludwig Otto Hesse提出&#xff0c;并以其名字命名。黑塞矩阵常用于牛顿法…