【流行学习】拉普拉斯映射(Laplacian Eigenmaps)

article/2025/4/27 11:26:41

一、前言

拉普拉斯特征映射是一种基于图的降维算法,它希望在原空间中相互间有相似关系的点,在降维后的空间中尽可能的靠近,从而在降维后仍能保持原有的数据结构信息。

二、主要步骤

拉普拉斯特征映射通过构建邻接矩阵为 W W W(或叫相似矩阵)的图,来重构数据流形的局部结构特征。
主要思想是,如果两个数据样本 i i i j j j 很相似,那么 i i i j j j 在降维后子空间中应该与在原空间中一样,尽量接近。
假设数据实例的数目为 n n n,目标子空间的维数(即最终的降维目标的维度)为 m m m。定义 n × m n×m n×m 大小的矩阵 Y Y Y ,其中每一个行向量 y i T y_i^T yiT 是数据实例 i i i 在目标 m m m 维子空间中的向量表示(即降维后的数据实例 i i i )。 我们的目的是让相似或相近的数据样本 i i i j j j 在降维后的目标子空间里仍旧尽量接近。
具体步骤如下图所示
在这里插入图片描述
1.确定拉普拉斯映射优化的目标函数 min ⁡ ∑ i , j ∥ y i − y j ∥ 2 W i j \min \sum_{i, j}\left\|y_{i}-y_{j}\right\|^{2} W_{i j} mini,jyiyj2Wij
其中 W i j W_{i j} Wij 为构建邻接矩阵(或相似矩阵),距离较远的两个点之间的边权重值较低,而距离较近的两个点之间的边权重值较高, 采用全连接法高斯核计算公式如下:
w i j = e − ∥ x i − x j ∥ 2 2 2 σ 2 w_{i j}=e^{-\frac{\left\|x_{i}-x_{j}\right\|_{2}^{2}}{2 \sigma^2}} wij=e2σ2xixj22
2.目标函数优化
∑ i = 1 n ∑ j = 1 n ∥ y i − y j ∥ 2 W i j = ∑ i = 1 n ∑ j = 1 n ( y i T y i − 2 y i T y j + y j T y j ) W i j = ∑ i = 1 n ( ∑ j = 1 n W i j ) y i T y i + ∑ j = 1 n ( ∑ i = 1 n W i j ) y j T y j − 2 ∑ i = 1 n ∑ j = 1 n y i T y j W i j = 2 ∑ i = 1 n D i i y i T y i − 2 ∑ i = 1 n ∑ j = 1 n y i T y j W i j = 2 tr ⁡ ( Y T D Y ) − 2 tr ⁡ ( Y T W Y ) = 2 tr ⁡ [ Y T ( D − W ) Y ] = 2 tr ⁡ ( Y T L Y ) \begin{aligned} &\sum_{i=1}^{n} \sum_{j=1}^{n}\left\|y_{i}-y_{j}\right\|^{2} W_{i j} \\ &=\sum_{i=1}^{n} \sum_{j=1}^{n}\left(y_{i}^{T} y_{i}-2 y_{i}^{T} y_{j}+y_{j}^{T} y_{j}\right) W_{i j} \\ &=\sum_{i=1}^{n}\left(\sum_{j=1}^{n} W_{i j}\right) y_{i}^{T} y_{i}+\sum_{j=1}^{n}\left(\sum_{i=1}^{n} W_{i j}\right) y_{j}^{T} y_{j}-2 \sum_{i=1}^{n} \sum_{j=1}^{n} y_{i}^{T} y_{j} W_{i j} \\ &=2 \sum_{i=1}^{n} D_{i i} y_{i}^{T} y_{i}-2 \sum_{i=1}^{n} \sum_{j=1}^{n} y_{i}^{T} y_{j} W_{i j} \\ &=2 \operatorname{tr}\left(Y^{T} D Y\right)-2 \operatorname{tr}\left(Y^{T} W Y\right) \\ &=2 \operatorname{tr}\left[Y^{T}(D-W) Y\right] \\ &=2 \operatorname{tr}\left(Y^{T} L Y\right) \end{aligned} i=1nj=1nyiyj2Wij=i=1nj=1n(yiTyi2yiTyj+yjTyj)Wij=i=1n(j=1nWij)yiTyi+j=1n(i=1nWij)yjTyj2i=1nj=1nyiTyjWij=2i=1nDiiyiTyi2i=1nj=1nyiTyjWij=2tr(YTDY)2tr(YTWY)=2tr[YT(DW)Y]=2tr(YTLY)
其中 W W W 是图的邻接矩阵,对角矩阵 D D D 是图的度矩阵( D i i = ∑ j = 1 n W i j D_{ii}=\sum_{j=1}^{n} W_{i j} Dii=j=1nWij ), L = D − W L=D-W L=DW 成为图的拉普拉斯矩阵。

变换后的拉普拉斯特征映射优化的目标函数如下:
min ⁡ trace ⁡ ( Y T L Y ) , s.t.  Y T D Y = I \min \operatorname{trace}\left(Y^{T} L Y\right), \quad \text { s.t. } Y^{T} D Y=I mintrace(YTLY), s.t. YTDY=I

其中限制条件 s . t . Y T D Y = I s.t. Y^{T} D Y=I s.t.YTDY=I 保证优化问题有解。

3.拉格朗日乘子法求解:
f ( Y ) = tr ⁡ ( Y T L Y ) + tr ⁡ [ Λ ( Y T D Y − I ) ] ∂ f ( Y ) ∂ Y = L Y + L T Y + D T Y Λ T + D Y Λ = 2 L Y + 2 D Y Λ = 0 ∴ L Y = − D Y Λ \begin{aligned} &f(Y)=\operatorname{tr}\left(Y^{T} L Y\right)+\operatorname{tr}\left[\Lambda\left(Y^{T} D Y-I\right)\right] \\ &\frac{\partial f(Y)}{\partial Y}=L Y+L^{T} Y+D^{T} Y \Lambda^{T}+D Y \Lambda =2 L Y+2 D Y \Lambda=0 \\ &\therefore L Y=-D Y \Lambda \end{aligned} f(Y)=tr(YTLY)+tr[Λ(YTDYI)]Yf(Y)=LY+LTY+DTYΛT+DYΛ=2LY+2DYΛ=0LY=DYΛ

最后为了目标函数最小化,要选择最小的 m m m 个特征值所对应的特征向量作为降维后的结果输出。


http://chatgpt.dhexx.cn/article/Wu4eeo4B.shtml

相关文章

7个流行的强化学习算法及代码实现

目前流行的强化学习算法包括 Q-learning、SARSA、DDPG、A2C、PPO、DQN 和 TRPO。 这些算法已被用于在游戏、机器人和决策制定等各种应用中,并且这些流行的算法还在不断发展和改进,本文我们将对其做一个简单的介绍。 1、Q-learning Q-learning&#xff1…

流行学习,比较好的一篇博客

转载自:https://blog.csdn.net/sinat_32043495/article/details/78997758 嵌入在高维空间的低维流形 流形:局部具有欧几里得空间性质的空间 1.较好的描述转载 作者:暮暮迷了路 链接:https://www.zhihu.com/question/2401548…

深度学习—近年来流行的卷积神经网络(一)

近年来流行的卷积神经网络 1. 回顾与目标2. 近年来流行的卷积神经网络2.1 VGGNet2.1.1 感受野的概念2.1.2 感受野的计算 2.2 GooleNet2.3 ResNet 3. 结尾参考资料 1. 回顾与目标 前面几讲,我们以LeNet和AlexNet为例,详细讲解了卷积神经网络的结构。从20…

流行学习常用算法

Isomap:等距映射。前提假设为低维空间中的欧式距离等于高维空间中的侧地线距离,当然该算法具体实施时是高维空间中较近点之间的测地线距离用欧式距离代替,较远点距离用测地线距离用最短路径逼近。 LLE:局部线性嵌入。前提假设是数据所在的低维…

流行学习与拉普拉斯变换的推导

参考:拉普拉斯矩阵 参考:流行学习

流行学习初步理解

一. 流形学习的英文名为manifold learning。其主要思想是把一个高维的数据非线性映射到低维,该低维数据能够反映高维数据的本质,当然有一个前提假设就是高维观察数据存在流形结构,其优点是非参数,非线性,求解过程简单。…

流行学习简单入门与理解

最近博主再看西瓜书第十三章半监督学习,文章中作者提到需要少量查询的主动学习、K-means簇的聚类,以及流行学习。对于流行学习,博主也是第一次接触,下面我们来简单学习和理解一下流行学习。 1. 半监督学习 SSL的成立依赖于模型假…

机器学习----流行学习(manifold learning)的通俗理解

流形学习(manifold learning)是一类借鉴了拓扑流行概念的降维方法,在降维时,若低维流行嵌入到高维空间中,则数据样本在高维空间的分布虽然看上去十分复杂,但在局部上仍具有欧式空间(对现实空间的…

流行学习Manifold Learning

文章目录 1、流行学习前言:2、流形学习的概念流形的概念:流行学习的概念: 3、流形学习的分类4、高维数据降维与可视化5、基本问题和个人观点6、参考文献 1、流行学习前言: 流形学习是个很广泛的概念。这里我主要谈的是自从2000年…

关于nn.embedding的理解

import torch.nn as nn nn.Embedding(num_embeddings, embedding_dim, padding_idxNone, max_normNone, norm_type2, scale_grad_by_freqFalse, sparseFalse)参数解释 num_embeddings (python:int) – 词典的大小尺寸,比如总共出现5000个词,那就输入500…

深究embedding层

关于embedding层,贴出一些很好的链接,以供备忘与分享。 http://blog.sina.com.cn/s/blog_1450ac3c60102x79x.html https://blog.csdn.net/sjyttkl/article/details/80324656 https://blog.csdn.net/jiangpeng59/article/details/77533309 https://juejin…

一文搞懂 Embedding !

这篇文章把embedding单独提出来,梳理一下embedding在推荐系统中的应用。以下内容主要从深度学习方法和传统的协同过滤方法两个方面加深和理解在推荐系统领域对embedding的认识,详细解读下“embedding”这一重要思想。 什么是Embedding? Embedding(嵌入)是拓扑学里面的词…

5、Embedding

本文作为个人笔记引用于: https://blog.csdn.net/weixin_42078618/article/details/82999906 https://blog.csdn.net/weixin_42078618/article/details/84553940 https://www.jianshu.com/p/63e7acc5e890 简介 假设,我们中文,一共只有10个字…

embedding

what is emdding embedding就是把字词用向量表示出来,相当于是对字词做encoding motivation 比如 猫,狗,我们当然可以直接把他们表示为一些独立的离散符号,但是这样的表示毫无意义,而且会产生大量稀疏数据。使我们在…

Embeding编码方式

Embeding编码方式概述 独热码:数量大而且过于稀疏,映射之间是独立的,没有表现出关联性。 Embedding:是一种单词编码方法,用低维向量实现了编码,这种编码通过神经网络训练优化,能表达出单词间的…

机器学习中的Embedding

来自知乎的一个解释:(版权归原作者所有,仅供学习,禁止商用) https://zhuanlan.zhihu.com/p/46016518 解释还是有点感觉迷糊,数学解释: Embedding在数学上表示一个maping, f: X -> Y&#x…

Embedding 编码方法

一、作用 Embedding 是一种单词编码,用低维向量实现了编码,这种编码通过神经网络训练优化,能表达单词之间的相关性。 在是用独热码one_hot编码时,我们会发现单词的编码十分稀疏,以至于训练的效率不是很高。采用embeddi…

nn.Embedding使用

nn.Embedding是一种词嵌入的方式,跟one-hot相似但又不同,会生成低维稠密向量,但是初始是随机化的,需要根据模型训练时进行调节,若使用预训练词向量模型会比较好。 1. one-hot one-hot是给定每个单词一个索引&#xf…

深度学习中Embedding的解释

转载于https://zhuanlan.zhihu.com/p/164502624 什么是Embedding? 近年来,NLP自然语言处理、推荐系统,以及计算机视觉已成为目前工业界算法岗的主流方向,无论在哪个领域,对“Embedding”这个词概念的理解都是每个庞大知…

Embedding理解+代码

目录 Embedding主要思想 Word2vec主要思想两种模型:目的: 算法一、定义超参数二、将语料库转换one-hot编码表示三、模型训练 代码手动实现 skip-gram模型一、数据准备二、定义超参数三、定义word2vec模型数据清洗及生成词汇表训练模型 四、 获取词向量和…