论文阅读ICLR2020《ADAPTIVE STRUCTURAL FINGERPRINTS FOR GRAPH ATTENTION NETWORKS》

article/2025/10/20 6:47:42

论文阅读ICLR2020《ADAPTIVE STRUCTURAL FINGERPRINTS FOR GRAPH ATTENTION NETWORKS》

    • 摘要
    • 确定节点相似性时图的结构
    • Adaptive Structural Fingprients(ADSF)
    • 模型介绍
    • 结果分析
    • 原作CONCLUSION AND FUTURE WORK
    • 论文

摘要

观点:如何利用注意力机制中的丰富的结构信息
针对问题:增加高阶邻居的注意范围会对性能产生负面影响,过平滑风险
本文提出“Adaptive structure Fingerprints”ADSF模型,充分利用图像注意网络中的拓扑结构。
关键是学习 用一种可加权的、可学习的接受域对每个节点进行 contextualize

确定节点相似性时图的结构

节点结构对节点相似性的影响

  1. 图1a,假设基于内容相似性(A,B)与(A,C)同样相似。但基于结构B比C于A更相似,因为B于A同处于同一个小型的、紧密相连的community,有很大一部分共同邻居
  2. 图1b,A于B不直接相连,在GAT中A和B不直接影响,但A和B共同连接于同一个community,且B连接于community hub,因此A 和 B 直接影响是合理的

Adaptive Structural Fingprients(ADSF)

利用结构信息的关键是构造所谓的“Adaptive Structural Fingprients”,将每个节点置于其局部“receptive field”的上下文 中。
在这里插入图片描述
取每个节点的K-hops邻居节点作为该节点的子图,表示形式为(Vi; Ei)。则通过该子图结构,为每个节点重新加权,作为structural fingerprint:Fi = (Vi; wi).

加权方式有两种:

1. Gaussian function of its distance from the center node
2. Random Walk with Restart (RWR)

Gaussian function of its distance from the center node
在这里插入图片描述
Random Walk with Restart (RWR)
在这里插入图片描述
公式推导请参考原文

作者对于这两种方法进行比较:
在这里插入图片描述
上图可以看出两种方法权重可视化后,RWR更能反映样本的结构关系。

模型介绍

在这里插入图片描述
作者模型设计过程可以由下图公式解释:
在这里插入图片描述
其中eij的计算为相似性计算,sij计算为weighted Jacard similarity,然后分别对于两种相似度进行Softmax归一化后,计算联合注意力。最终Massage Passing节点状态更新采用注意力加权方式。

结果分析

引文数据结果比较
上述结果可以看出,增加结构信息注意力后,模型的效果有明显的提升。
同时作者也对于模型的k-hops中的参数k,RWR中的参数c以及节点加权方式进行比较。可以看出在k=2.即节点选取2阶邻域作为子图结构时,模型效果最好。
在这里插入图片描述

原作CONCLUSION AND FUTURE WORK

在这项工作中,我们提出了一个自适应的结构指纹模型来编码复杂的拓扑和结构信息,以改善图形表示学习。在未来,我们将考虑不同的指纹参数(例如衰变轮廓),而不是在所有节点之间共享这些参数;我们将考虑将我们的方法应用于图划分和社区检测,其中节点特征可能不可用,而图结构将是可以探索的主要信息源;我们还将扩展我们的方法来解决具有挑战性的图分类问题。在理论方面,我们将借鉴现有的半监督学习工具,研究半监督节点嵌入和分类方法的泛化性能。

论文

论文地址:https://openreview.net/forum?id=BJxWx0NYPr
代码地址:https://github.com/AvigdorZ/ADaptive-Structural-Fingerprint


http://chatgpt.dhexx.cn/article/qej2SGJJ.shtml

相关文章

MDC300的ADSFI框架介绍

文章目录 什么是ADSFI框架?ADSFI应用框架图MDC300上有哪些ADSFI框架?各个ADSFI框架的联系单个ADSFI框架的构成单个ADSFI框架中的yaml文件 什么是ADSFI框架? ADSFI(Autonomous Driving Service Framework Initiative) …

论文阅读笔记(4-2)---吴恩达DNN算法分析和仿真实现

算法开发 该深度卷积神经网络以原始心电图数据(以200Hz或每秒200个样本为样本)作为输入,并且每256个样本(或每1.28秒)生成一个预测,我们称之为输出间隔。网络仅以原始心电图样本为输入,网络架构…

LightGBM的基本原理以及使用

LightGBM的基本原理以及使用 LightGBM的基本原理 LightGBM是一款常用的GBDT工具包,由微软亚研院开发,速度比XGBoost快,精度稍低 。他的设计理念是:1.单个机器在不牺牲速度的情况下,尽可能使用上更多的数据。2.多机并…

从心电信号分类过渡到心音信号分类

首先刚接手这种关于信号的分类问题,以下可能会有不对的地方,接下去通过学习会对不正确的地方进行更正或者补充。 心电信号分类参考文献:Cardiologist-LevelArrhythmiaDetectionwithConvolutionalNeuralNetworks目标:对传感器采集…

LightGBM调参

GBDT模型的另一个进化版本:LightGBM。LigthGBM是boosting集合模型中的新进成员,由微软提供,它和XGBoost一样是对GBDT的高效实现,原理上它和GBDT及XGBoost类似,都采用损失函数的负梯度作为当前决策树的残差近似值&#…

XGBoost调参步骤及常见问题

XGBoost xgboost中的基学习器除了可以是CART(gbtree)也可以是线性分类器(gblinear) xgboost在目标函数中显示的加上了正则化项,基学习为CART时,正则化项与树的叶子节点的数量T和叶子节点的值有关。 正则项…

LightGBM原理介绍

简介 是GBDT模型的一个进化版本,其主要思想是利用弱分类器(决策树)迭代训练以得到最优模型,该模型具有训练效果好、不易过拟合等优点(备注:容易出现过拟合的风险,需要限制树的最大深度来防止过…

lightbgm参数_参数调优LightGBM-商品分类-代码

1.直接调用LightGBM内嵌的cv寻找最佳的参数n_estimators(弱分类器数目) Otto商品分类数据 导入必要模型import lightgbm as lgbm import pandas as pd import numpy as np from sklearn.model_selection import GridSearchCV from sklearn.model_selection import StratifiedKF…

Xgboost回归四种调参方法及Python简单实现

前言 Xgboost对特征工程和数据处理比较友好,相比之下调参成为用好Xgboost重要的一环,本文分别从参数、调参方法、Python实现的维度进行梳理,作为调参思路的记录。 本文将关注以下几个问题: 1.Xgboost哪些参数需要调参&#xff…

Python机器学习10——梯度提升

本系列所有的代码和数据都可以从陈强老师的个人主页上下载:Python数据程序 参考书目:陈强.机器学习及Python应用. 北京:高等教育出版社, 2021. 本系列基本不讲数学原理,只从代码角度去让读者们利用最简洁的Python代码实现机器学…

【机器学习】集成学习代码练习

课程完整代码:https://github.com/fengdu78/WZU-machine-learning-course 代码修改并注释:黄海广,haiguang2000wzu.edu.cn import warnings warnings.filterwarnings("ignore") import pandas as pd from sklearn.model_selection …

Keras 1.0 与 2.0 中 Convolution1D 的区别(其实是tf1.0 2.0 区别)

1.0 Convolution1D: 一维卷积层 nb_filter: 卷积核的个数 filter_length: 每个卷积核的长度 init: 权重初始化函数名称 weights: 权重初始化 border_mode: valid, same or full 如果是‘valid ’ 进行有效的卷积,对边界数据不处理,‘same表示保留…

数据挖掘入门_Task04

线性回归模型 线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。 可以直接使用sklearn建立线性模型: from sklearn.linear_model import LinearRegression model LinearRegression(n…

task4 建模调参

1 读取数据 import pandas as pd import numpy as np import warnings warnings.filterwarnings(ignore)note: 将整型变量的类型尽量压缩,逐步判断并转化为int8,int16,int32,int64 def reduce_mem_usage(df):""" iterate through all the columns …

深度学习与神经网络(七)——卷积神经网络之池化pooling 上采样upsample与降采样downsample(下采样)(subsample)(nn.MaxPool2d)

池化层pooling与采样 upsample与downsample upsample(interpolating)是上采样,是图片的放大 unpool是上采样的一种 downsample(subsample)是下采样,是图片的缩小 在卷积神经网络中使用的采样方式就是pooling,有点类似下采样,但不太…

有放回随机抽样:重要参数subsample

原理透析 确认了有多少棵树之后,我们来思考一个问题:建立了众多的树,怎么就能够保证模型整体的效果变强呢?集成的目的是为了模型在样本上能表现出更好的效果,所以对于所有的提升集成算法,每构建一个评估器&…

Subsample子采样(CloudCompare软件)

之前一直以为CC软件里面没有子采样这个功能,不过找了找之后发现还是有的,感觉这些小的功能挺有意思的,所以也就记录一下。 文章目录 一、Random采样二、space采样三、octree采样四、小结 一、Random采样 有时候我总是喜欢使用一些小的样本来…

Android Content Providers(三)——Contacts Provider

接着上篇Android Content Providers(二)——Contacts Provider继续,接下来要说明的是顶层的Contacts,Contacts是聚合联系人表,在之前讨论的RawContacts是原始联系人表,在Android通讯录的架构中,…

Android contacts 的详解

一、包结构分析 相关联的的projects 1、Contacts相关 联系人分为了Contacts和ContactsCommon,与sim卡联系人相关的是在Telephony中,数据库是在ContactsProvider,apk要push到/system/priv-app/Contacts下 2、Contacts的包结构 3、ContactsComm…

由ContactsProvider的升级引发的OTA首次开机卡白米问题分析

上午的宁静被一个OTA卡白米问题打破,接下来不断有人反馈不同机型都复现了OTA后卡白米,10.9号OTA升级到10.10号的版本,全机型问题,线刷没有问题,好吧,接下来就根据这些信息开始初步分析log吧! 初…