论文标题:Meta-GNN:Metagraph Neural Network for Semi-supervised learning in Attributed Heterogeneous Information Networks
作者:Aravind Sankar, Xinyang Zhang, Kevin Chen-Chuan Chang
单位:Department of Computer Science, University of Illinois, Urbana-Champaign, USA
论文链接:https://dl.acm.org/doi/pdf/10.1145/3341161.3342859
论文引用:Sankar A , Zhang X , Chang C C . Meta-GNN: metagraph neural network for semi-supervised learning in attributed heterogeneous information networks[C]// ASONAM '19: International Conference on Advances in Social Networks Analysis and Mining. 2019.
概述
难点
AHIN中的半监督学习相对于同构网络以及HIN更困难。例如:对DBLP中的作者进行分类,他的共同作者以及出版的期刊都是上下文节点(context nodes),提供了相关性特征,在对作者分类时需要考虑进去。但是,这些上下文节点有不同的属性且发挥不同的作用:(a) 不同的节点类型(期刊<-->共同作者),(b) 同一节点类型但不同的结构取向(引用<->被引用)
作用
有了元图卷积,就可以有以下两个insights:
- 高阶语义局部性:元图(meta-graph)通过特定的子结构指定语义关系,提供了一个框架用于捕获高阶语义局部性(非直接邻居),例如通过共同作者这种关系(类似于元路径,meta-path)
- 准确的语义角色:根据本地上下文节点的节点类型和结构连接模式对其进行准确的语义角色识别,例如共同作者和出版期刊
论文贡献
- 利用元图来定义关注的节点的局部上下文(local context)或感受野(receptive field),以此介绍了一种新颖的用于AHIN(Attributed Heterogeneous Information Networds)的图卷积
- 提出新颖的神经结构——Meta-GNN,用到了多层元图卷积层,使用注意力机制来学习每个节点个性化的元图权重
- 在多个真实数据集进行实验,证明Meta-GNN的有效性
定义
几个节点的类型
target node,对象节点,在一个元图中的研究对象,是主体;
context node,上下文节点相对于target node的关联节点;
auxiliary node,辅助节点,用于关联target node和context node的中间节点。
AHIN
即属性异构信息网络,Attributed-HIN。图的基本表示是,而AHIN带有属性,那么表示为
,其中
就是属性矩阵,
维(
表示图中几点的数量,
表示属性的维度)。由于有不同类型的节点,而每个节点类型可能属于不同的特征空间,因此作者将所有类型的特征连接起来,用零填充不属于这个数据类型的特征。
meta-graph
熟悉HIN的同学一定知道meta-path,meta-graph和meta-path的概念很像,但是meta-path与meta-graph不同在于前者从起点到终点只能存在一条路径,而后者可以存在多条路径。我们看图1,1(a)中的可以看作是一个meta-path,也就是说meta-path是meta-graph的一个特例。
作者给出了meta-graph的数学描述:
Definition: A metagraphwith target node
, context node
is defined as
with node type mapping
where
is the set of nodes with
,
is the set of links and
is the set of auxiliary nodes.
meta-graph实例
定义一个表示meta-graph的实例,其中
表示目标节点(target node),满足
,即实例中的边都是图中的边,实例中的点都是图中的点,很好理解;并且要满足一个映射
,这个映射表示的是,从元图的实例映射到元图M,需要满足1)元图实例的目标节点映射到元图中需要是元图M中的
;2)元图实例的节点映射到元图中需要是相同类型的;3)实例中的边需要是元图中定义的边。
meta-GNN网络
卷积层
定义公式为,,也就是普通的GCN卷积层,其中
,
表示度矩阵,
表示邻接矩阵,只是这个邻接矩阵不是同构图中的邻居关系而是元图中target node和context node的连接关系,
是单位对角矩阵。而目前还没有定义出
的表示,接下来作者就是要讲述如何定义这个
。
定义下感受野(receptive field):target node 的关于元图
的感受野是所有元图
的元图实例,用
表示。
另外,在每个元图中,两个节点的即使是相同类型的也可能对元图起不同的作用,例如图1(a)中的元图,
和
的节点类型相同但是要表达引用和被引用的关系,是不能互换的,因此作者定义了语义角色(semantic roles),定义为:在一个元图中,如果存在一个映射
使得在元图中,使得两个节点
满足
而其余节点都满足
,那么
有着相同的语义角色。简单来说图1(a)中的
元图的
和
有着不同的语义角色而图1(a)中的
元图的
和
有着相同的语义角色。那这个语义角色有什么用呢?作者在下面就用到了它。
在一个元图中,假设有种语义角色,那么除了target node之外的所有节点都可以映射到某一个语义角色,那么可以写成
。
接下来,就用这个语义角色来定义元图中的邻接矩阵了。定义A中的每个元素为
这个公式比较长,用语言简单解释下,就是某个元图的邻接矩阵
在目标节点
上的邻接矩阵的计算内容为:对
所有的元图实例
,另外一个节点
在这多个元图实例中语义角色为k的总数量。那么最终的A的维度是
,有
个这样的矩阵。那么原本的图卷积就变换形式用到meta-GNN中了,每个节点
关于
的卷积可以写成
其中分别表示节点
的特征,
表示在元图
中节点
的元图实例的数量,用来做normalization,写成矩阵形式就是
最后作者使用注意力机制将这M个元图融合。