Bipartite Graph Based Multi-View Clustering

article/2025/10/26 9:51:03

Bipartite Graph Based Multi-View Clustering

基于二部图的多视图聚类

abstract

对于基于图的多视图聚类,一个关键问题是通过两阶段学习方案捕获共识聚类结构。具体来说,首先学习多个视图的相似性图矩阵,然后将它们融合为统一的高级图矩阵。大多数当前的方法独立地学习每个视图的数据点之间的成对相似性,这在单个视图中被广泛使用。然而,包含在多个视图中的共识信息被忽略,并且所涉及的偏差导致不期望的统一图矩阵。为此,我们提出了一种基于二分图的多视图聚类(BIGMC)方法。共识信息可以由不同视图的少量代表性统一锚点表示。在数据点和锚点之间构建二分图。BIGMC构建所有视图的二分图矩阵,并将其融合以生成统一的二分矩阵。统一的二分图矩阵进而改进每个视图的二分图形相似性矩阵并更新锚点。最终的统一图矩阵直接形成最终的簇。在BIGMC中,为每个视图添加自适应权重以避免异常视图。对统一矩阵的拉普拉斯矩阵施加低秩约束,以构造多分量统一二分图。

introduction

基于图的多视图聚类方法旨在通过组合所有视图的图矩阵,以统一的图矩阵的形式对数据对象之间的相似关系进行编码。通过在统一图矩阵上使用附加的聚类方法来形成最终聚类。聚类性能取决于每个视图图的质量和融合策略。

  • 在学习每个视图图矩阵时,不考虑不同视图的共识信息。大多数现有方法独立地学习每个视图的对象之间的成对相似性。这通常导致所涉及的偏差影响每个视图图矩阵的质量。我们的方法通过学习不同视图的少量代表性统一锚点来获取共识信息。每个视图都有一个锚点集,不同视图中的这些锚点将信息保存在相同的子集群中
  • 第二,他们在融合过程中保持预先给定的锚点集和学习的视图图矩阵固定不变,在这种情况下,它们对初始化很敏感,很容易陷入局部最优。我们的方法以相互增强的方式共同学习每个视图二分图矩阵、统一图矩阵和统一锚点。他们可以相互学习。
  • 第三,如果没有附加的超参数,大多数方法无法自适应地学习每个视图的权重。额外超参数的最佳值需要在大范围内搜索。我们的方法可以基于相应的学习视图二分图和统一的图矩阵自适应地确定每个视图的最优权重。

为了解决这些问题,提出了BIGMC,总体架构图:

在这里插入图片描述

  1. 从多视图数据矩阵的输入中,为不同视图创建t个初始统一锚点,记为A。
  2. 然后根据数据点与锚点的相似度生成各个视图的图,称为“数据到锚点”的相似度图,记为S。
  3. 然后利用来自多个视图的所有Ss,在融合过程中学习一个统一的图矩阵U。同时,每个视图 ( δ \delta δ) i s 的权重基于 Ss 和 U 自适应地添加,表明其重要性。添加秩约束。
  4. 接下来,得到的统一矩阵U将返回,改进每个视图的Ss和 δ \delta δ,直到收敛。
  5. 根据收敛的统一图矩阵U,我们可以得到每个视图的统一锚点A。如果它们与初始锚点不同,我们将改进所有As,以依次更新Ss、统一图矩阵U和权重d,直到它们相同。最终的簇是基于U直接形成的

本文贡献:

  • 我们提出了一种新的基于二部图的多视图聚类方法。BIGMC可以学习和利用由少量统一锚点所代表的共识信息,减轻了多个视图中包含的偏见的影响。
  • BIGMC共同学习每个视图的相似二部图、统一二部图、共识锚,相互强化。它还可以自动确定每个二部图的权重,而不引入附加超参数。当不同视图中的锚点相同时,直接根据统一的二部图生成最终的聚类。
  • BIGMC采用高效的交替迭代优化策略,逐级求解变量优化问题,每个子问题都有一个最优解。
  • 在合成数据集和真实数据集上的实验结果证明了所提出的BIGMC的有效性和比现有基线的优越性。

PROPOSED METHOD

X ∈ R d × n X \in R^{d \times n} XRd×n

l p l_p lp范式定义为: ∣ ∣ x ∣ ∣ p = ( ∑ i = 1 d ∣ x i ∣ p ) 1 / p ||x||_p = (\sum_{i=1}^d |x_i|^p)^{1/p} xp=(i=1dxip)1/p

对于有m个视图的多视图数据集,我们表示 X 1 , X 2 , … , X m X^1,X^2,\dots,X^m X1,X2,,Xm作为数据矩阵 X v = [ x 1 v , … , x n v ] R d v × n X^v = [x_1^v,\dots,x_n^v] \ R^{d_v \times n} Xv=[x1v,,xnv] Rdv×n作为具有 d v d_v dv维数和n个数据点的第v个视图数据。

对于 X v X^v Xv,设 x j v x^v_j xjv是第j个列向量, X i j v X^v_{ij} Xijv是第(i,j)个条目 A v = [ a 1 v , … , a t v ] ∈ R d v × t A^v = [a_1^v,\dots,a_t^v] \in R^{d_v \times t} Av=[a1v,,atv]Rdv×t

值得注意的是,所有视图数据都有t个共识锚点,其中每个锚点都是相应子聚类的质心。当t = c时,每个集群只有一个锚点

View Graph Learning

S v ∈ R n × t S^v \in R^{n \times t} SvRn×t

在这里插入图片描述

在这里,我们通过在固定锚集时为每个视图构建相似度矩阵来独立学习视图图。原因是每个图只通过锚点集彼此关联。

然后,我们生成一个统一的二部图矩阵,并利用它自适应更新 { A v } v = 1 m \{ A^v \}_{v=1}^m {Av}v=1m直到收敛。

Unified Graph Learning

我们提出的BIGMC可以联合学习所有视图的图,构造一个统一的二部图,并自动确定每个视图的重要性。

具体来说,通过 { S v } v = 1 m \{ S^v \}_{v=1}^m {Sv}v=1m的统一矩阵 U ∈ R n × t U \in R^{n \times t} URn×t可以得到统一的二部图。

在这里插入图片描述

权重公式:

在这里插入图片描述

来源:https://blog.csdn.net/qq_45178685/article/details/127976977

结合问题1 2 来联合学习 S v U S^v \quad U SvU:

在这里插入图片描述

我们注意到,当A是固定的时候,矩阵S和U可以在一个问题中联合学习。在下一小节中,我们可以自适应地找到所有视图的共识锚点

Consensus Anchor Learning

当统一矩阵U更新时,我们可以探索共识锚,并在所有视图中重新定位它们。对于第v个视图数据的第j个子簇,根据与之连接的所有数据点的平均值可以得到它的锚点 a j v a_j^v ajv

在这里插入图片描述

其中 a j v ∈ R d v × 1 j = 1 , … , t a_j^v \in R^{d_v \times 1} \quad j = 1,\dots,t ajvRdv×1j=1,,t

Optimal Bipartite Graph Learning

二部图的边权可以用U表示 其中每个元素 u i j u_{ij} uij是连接 x i x_i xi所有视图对应 a j a_j aj的边的权值

在这种情况下,加权邻接矩阵 Z ∈ R ( n + t ) × ( n + t ) Z \in R^{(n+t) \times (n+t)} ZR(n+t)×(n+t) 度矩阵 D U D_U DU

在这里插入图片描述

D 1 ∈ R n × n , 其 中 的 元 素 是 ∑ j = 1 t u i j , D 2 ∈ R t × t 其 中 的 元 素 是 ∑ i = 1 n u i j D_1 \in R^{ n \times n},其中的元素是 \sum_{j=1}^t u_{ij},D_2 \in R^{t \times t} 其中的元素是\sum_{i=1}^n u_{ij} D1Rn×n,j=1tuij,D2Rt×ti=1nuij

归一化的矩阵:
在这里插入图片描述

引理二:归一化拉普拉斯矩阵LU的特征值0的重数c等于与U相关的二部图中连通分量的个数。

在这里插入图片描述

问题进一步转化为:

在这里插入图片描述

OPTIMIZATION STRATEGY

迭代优化

固定 { δ v } v = 1 m \{\delta_v\}_{v=1}^m {δv}v=1mU、F, { A v } v = 1 m \{A_v\}_{v=1}^m {Av}v=1m 更新S

问题变为:

在这里插入图片描述

所有视图间是独立的:

在这里插入图片描述

此外,我们还可以发现对每个向量更新 s i v s_i^v siv是独立的:

在这里插入图片描述

简化计算: θ i 的 第 j 个 元 素 是 θ i j = ∣ ∣ x i v − a j v ∣ ∣ \theta_i的第j个元素是 \theta_{ij} = ||x_i^v - a_j^v || θijθij=xivajv 问题18变为:

在这里插入图片描述

推导过程:
min ⁡ ∑ j = 1 t ∥ x i v − a j v ∥ 2 2 s i j v + α ∥ s i v ∥ 2 2 + ∥ u i − s i v ∥ 2 2 δ v min ⁡ ∑ j = 1 t θ i j s i j v + α ∥ s i v ∥ 2 2 + ∥ u i − s i v ∥ 2 2 δ v min ⁡ ∑ i = 1 t ∑ j = 1 t θ i j s i j v + α ∥ s v ∥ F 2 + ∥ U − S v ∥ F 2 δ v min ⁡ ∑ i = 1 t θ i T s i v + α s i v T s i v + ∥ u i − s i v ∥ 2 2 δ v min ⁡ ∑ i = 1 t θ i T s 2 v α + s i v T s i v + ∥ u i − s i v ∥ 2 2 α δ v min ⁡ ∑ i = 1 t s i v T s i v + 2 θ i T s i v 2 α + θ i T θ 4 α 2 − θ i T θ 4 α 2 + ∥ u i − s i v ∥ 2 2 α δ v min ⁡ ∑ i = 1 t ∥ s i v + θ i 2 α ∥ 2 2 + 1 α ∥ u i v − s i v ∥ 2 2 δ v \begin{aligned} &\min \sum_{j=1}^t\left\|x_i^v-a_j^v\right\|_2^2 s_{i j}^v+\alpha\left\|s_i^v\right\|_2^2+\left\|u_i-s_i^v\right\|_2^2 \delta_v \\ &\min \sum_{j=1}^t \theta_{i j} s_{i j}^v+\alpha\left\|s_i^v\right\|_2^2+\left\|u_i-s_i^v\right\|_2^2 \delta_v \\ &\min \sum_{i=1}^t \sum_{j=1}^t \theta_{i j} s_{i j}^v+\alpha\left\|s^v\right\|_F^2+\left\|U-S^v\right\|_F^2 \delta_v \\ &\min \sum_{i=1}^t \theta_i^{T} s_i^v+\alpha {s_i^{v }}^T s_i^v+\left\|u_i-s_i^v\right\|_2^2 \delta_v \\ &\min \sum_{i=1}^t \frac{\theta_i^T s_2^v}{\alpha}+{s_i^{v}}^T s_i^v+\frac{\left\|u_i-s_i^v\right\|_2^2}{\alpha} \delta_v \\ &\min \sum_{i=1}^t {s_i^{v}}^T s_i^v+\frac{2 \theta_i^T s_i^v}{2 \alpha}+\frac{\theta_i^{T} \theta}{4 \alpha^2}-\frac{\theta_i^{T} \theta}{4 \alpha^2}+\frac{\left\|u_i-s_i^v\right\|_2^2}{\alpha} \delta v \\ &\min \sum_{i=1}^t\left\|s_i^v+\frac{\theta_i}{2 \alpha}\right\|_2^2+\frac{1}{\alpha}\left\|u_i^v-s_i^v\right\|_2^2 \delta_v \end{aligned} minj=1txivajv22sijv+αsiv22+uisiv22δvminj=1tθijsijv+αsiv22+uisiv22δvmini=1tj=1tθijsijv+αsvF2+USvF2δvmini=1tθiTsiv+αsivTsiv+uisiv22δvmini=1tαθiTs2v+sivTsiv+αuisiv22δvmini=1tsivTsiv+2α2θiTsiv+4α2θiTθ4α2θiTθ+αuisiv22δvmini=1tsiv+2αθi22+α1uivsiv22δv
如果我们约束svi有k个非零元素,问题(19)可以用闭合形式来解决。也就是说,对于每个数据点xv i,只考虑k个最近的锚,而不是k个最近的数据点。

根据GMC:https://blog.csdn.net/qq_45178685/article/details/127976977

在这里插入图片描述

固定 { S v } v = 1 m \{S_v\}_{v=1}^m {Sv}v=1m、U、F、 { A v } v = 1 m \{A_v\}_{v=1}^m {Av}v=1m 更新 { δ v } v = 1 m \{\delta_v\}_{v=1}^m {δv}v=1m

问题变为问题2 由等式8求解

固定 { S v } v = 1 m \{S_v\}_{v=1}^m {Sv}v=1m { δ v } v = 1 m \{\delta_v\}_{v=1}^m {δv}v=1m、F、 { A v } v = 1 m \{A_v\}_{v=1}^m {Av}v=1m 更新 U

问题变为:

在这里插入图片描述

归一化拉普拉斯矩阵的性质:

在这里插入图片描述

问题22变为:

在这里插入图片描述

类似地,为U中的每一行更新ui是独立的。我们可以有:

在这里插入图片描述

根据拉格朗日函数:

在这里插入图片描述

固定 { S v } v = 1 m \{S_v\}_{v=1}^m {Sv}v=1m、U、 { δ v } v = 1 m \{\delta_v\}_{v=1}^m {δv}v=1m { A v } v = 1 m \{A_v\}_{v=1}^m {Av}v=1m 更新 F

问题变为:

在这里插入图片描述

F写成分块矩阵形式:

在这里插入图片描述

F 1 ∈ R n × c F 2 ∈ R t × c F_1 \in R^{n \times c} \quad F_2 \in R^{t \times c} F1Rn×cF2Rt×c

问题变为:

在这里插入图片描述

B = ( D 1 ) − 1 / 2 U ( D 2 ) − 1 / 2 B ∈ R n × t B = (D_1)^{-1/2}U(D_2)^{-1/2} \quad B \in R^{n \times t} B=(D1)1/2U(D2)1/2BRn×t

在这里插入图片描述

在这里插入图片描述


http://chatgpt.dhexx.cn/article/bp4wuIpc.shtml

相关文章

BiNE: Bipartite Network Embedding

** BiNE: Bipartite Network Embedding ** SIGIR 2018 论文链接:https://dl.acm.org/doi/10.1145/3209978.3209987 项目代码:https://github.com/clhchtcjj/BiNE 文章目录 BiNE: Bipartite Network Embedding 摘要1、Introduction2、Related work&a…

【Paper】2020_Event-triggered bipartite consensus over cooperation-competition networks under DoS atta

Hu, A., Park, J.H., Cao, J. et al. Event-triggered bipartite consensus over cooperation-competition networks under DoS attacks. Sci. China Technol. Sci. 64, 157–168 (2021). 文章目录 1 Introduction2 Problem description and preliminaries2.1 Multiagent model…

Bipartite graph/network学习

Bipartite graph/network翻译过来就是:二分图。 维基百科中对二分图的介绍为:二分图是一类图(G,E),其中G是顶点的集合,E为边的集合,并且G可以分成两个不相交的集合U和V,E中的任意一条边的一个顶点属于集合…

bipartite matching二分图匹配

目录 二分图bipartite的概念 匹配的概念 最大匹配 bipartite matching 这个词最近在看Transformer相关的论文里常见用作loss function,所以特地学习一下,bipartite matching是一个什么操作。个人理解,若有表述错误或不当的问题,还请各位大…

【嵌入式单元测试】C语言单元测试框架搭建

cmocka cmocka交叉编译源码下载 编译准备源码修改指定编译器编译 cmocka使用示例常见问题参考 单元测试框架是一个软件包,它能够让开发者比较方便的表达产品代码需要表现出什么样的行为。单元测试框架提供了一个自动化单元测试的解决方案,让开发者把更多…

三年黑盒测试工程师,带你了解嵌入式测试,金三银四升职加薪秘诀

什么是嵌入式系统? 嵌入式系统是一种“完全嵌入受控器件内部,为特定应用而设计的专用计算机系统”。 嵌入式系统是“用于控制,监视或辅助操作机器和设备的装置”。 嵌入式系统还可以定义为“以应用为中心,以计算机技术为基础,软硬件可裁剪,功能、可靠性、成本、体积、功耗…

嵌入式软件测试的小结

文章内容为本人这三年来在嵌入式软件测试(黑盒)上的一些积累吧,说起来也挺快的,毕业三年的时间就这样过去了,在两家公司工作过(现在这家是第二家),这几年的测试项目基本都是围绕着嵌…

【测试】嵌入式软件测试VS一般软件测试

文章目录 1)什么是软件测试?测试的目的:软件测试的特点:软件测试信息流:软件测试的对象: 2)嵌入式软件测试2.1 嵌入式软件2.2 嵌入式软件测试嵌入式软件测试的特点: 3)嵌…

嵌入式软件自动化测试介绍

什么是嵌入式测试 嵌入式软件测试的概念似乎没那么大众,很多人从字面上理解,可能会以为这是个硬件测试,那么嵌入式测试实际上是什么呢? 根据IEEE(国际电机工程师协会)的定义,嵌入式系统是“控…

嵌入式软件测试的基本方法

嵌入式系统是以应用为中心,以计算机技术为基础,软件硬件可剪裁,适应应用系统对功能、可靠性、成本、体积及功耗严格要求的专用计算机系统。嵌入式系统的软硬件功能界限模糊,测试比PC系统软件测试要困难得多,嵌入式软件…

嵌入式测试大赛预选赛

刚刚参加了预选赛,对于这种热身赛,是不需要一点编程能力的,只不过需要一些细心 题目下载: 链接:https://pan.baidu.com/s/1Xm2d8UYhrK75fukcXQhEcg 密码:hxzy 这次预选赛是在练习题4的基础上改的&#x…

嵌入式软件测试

如何在目标板上实时测试应用程序为什么嵌入式系统测试困难? 在目标板上测试面临的系列问题: 1、如何下载测试到板子上,然后如何收集测试结果 2、如何累积可重复自动执行的测试 3、如何尽可能减少人工工作 4、如何减少内存不够的问题 这…

全国软件测试大赛嵌入式测试步骤及所需工具

文章目录 前言一、所需工具二、测试步骤1.从慕测平台上下载题目2.搭建测试环境3.测试脚本编写怎么编写 总结 前言 全国软件测试大赛嵌入式测试最全步骤及所需的工具 一、所需工具 若需要测试工具请私信我 二、测试步骤 以2019年的省赛题目为例 1.从慕测平台上下载题目 下…

嵌入式软件测试(黑盒测试)-----三年嵌入式软件测试的理解

前言 文章内容为本人这三年来在嵌入式软件测试(黑盒)上的一些积累吧,说起来也挺快的,毕业三年的时间就这样过去了,在两家公司工作过(现在这家是第二家),这几年的测试项目基本都是围绕…

简单聊聊嵌入式软件测试

一、什么是嵌入式?什么是嵌入式软件测试? 此文不从行业术语来讲,就用大白话来描述,容易明白,不当之处,还请见谅和指正。 嵌入式?简单的可以理解为上位机或者单片机,或者运行微型可定…

嵌入式测试

一、嵌入式软件测试的方法 嵌入式软件测试分为4个阶段,即模块测试、集成测试、系统测试、硬件/软件集成测试。前3个阶段适用于任何软件的测试,硬件/软件集成测试阶段是嵌入式软件所特有的,目的是验证嵌入式软件与其所控制的硬件设备能否正确地…

机器学习必备知识点 之 先验概率和后验概率

机器学习必备知识点 见 机器学习必备知识点 我们可以把概率获得分为两种: 一种是从原因到结果——先验概率一种是从结果到原因——后验概率 举个例子: 这里的P(C1),P(C2),P(x|C1),P(x|C1)都是先验概率,因…

Gretna网络分析之先验知识

目录 1. 简介 1.1 小世界网络 1.2 平均路径长度 2.功能键介绍 2.1 Global Network metrics 2.2 Nodal and modular network metrics 3.彩蛋 (转载请注明来自Ressan博客) 1. 简介 网络:由节点和连线构成的图/模型,用来研究…

如何将先验知识注入推荐模型

看到知乎上的一个问题“如何向深度学习模型中加入先验知识?”,觉得这是一个很好的问题,恰好自己在这方面有一些心得,今天拿出来和大家聊一聊。 说这个问题有趣,是因为提问者一定是对DNN的“智能”程度不满意了&#xf…