《How Powerful are Graph Neural Networks》是从WL Test的角度,对执行节点特征嵌入/图分类任务的GNN性能上限,进行理论分析的论文。 论文相关的知识列表整理如下,对于Ref.X标注的扩展理解章节,读者可以选择性阅读。 Weisfeiler-Lehman(WL) Test。 Supplementary Proof。 1 论文整体逻辑 从问题、方法、贡献这三点,初步...
不同的聚合方式、池化方式产生了GNN的许多变种,也在点分类(node classification)、图分类(graph classification)、链接预测(link prediction)等方面得到了显著的成果 但是存在一些问题,它们大多数都是基于经验性的直觉(empirical intuition)、启发式的方法(heuristics)和实验性的试错法(experimental trial-anderror),换句话...
在 Section.5 我们研究了当下流行的 GNN variants 并且发现它们的聚合方式都本质上不满足 injective 的特性,因此其模型的表征能力都不太强,但这些模型也可以捕获到 Graph 的其他的有趣的属性。 4 BUILDING POWERFUL GRAPH NEURAL NETWORKS 首先我们给出了 GNN 模型的最大表征能力,即具备单射性的聚合策略。理想情况...
论文标题:How Powerful are Graph Neural Networks论文作者:Keyulu Xu, Weihua Hu, J. Leskovec, S. Jegelka论文来源:2019, ICLR论文地址:download 论文代码:download 1 IntroductionGNN 目前主流的做法是递归迭代聚合一阶邻域表征来更新节点表征,如 GCN 和 GraphSAGE,但这些方法大多是经验主义,缺乏理论去理解 GNN ...
本文介绍的论文是《How Powerful are Graph Neural Networks?》。 作者提出了一个新的图神经网络框架GIN来捕捉图结构信息,经作者测试该GNN是最具表现力的,能够与Weisfeiler - Lehman图同构测试一样强大,在多个图分类基准上达到了最先进的性能。 🍁一、背景 ...
GNNs的聚合框架可以看作是multiset函数。 multiset:包含重复元素的集合。 聚合: 如果有两层聚合,无论是GCN还是WL test,以蓝色节点为例,先由其二阶邻居信息聚合得到一阶邻居节点信息,再由一阶邻居信息聚合得到自己。 WL test 是由单射函数(hash,不同输入得到不同输出)聚合 ...
【图神经网络】How Powerful are Graph Neural Networks?#ICLR 2019# 本文是麻省理工和斯坦福发表于ICLR 2019的工作,论文证明了GNNs至多可以和WL test在区分图结构方面同样有效。此外,作者还证明了GNN和WL test同样有效情况下的对neighbor aggregation和graph pooling functions的条件,并且提出一种简洁但有效的模型架构GIN...
Comprehensive Study on Molecular Supervised Learning with Graph Neural Networks Second, we find that the graph isomorphism hypothesis proposed by [Xu, K.; et al How powerful are graph neural networks? 2018, arXiv:1810.00826. arXiv.org e-Print archive. https://arxiv.org/abs/1810.00826] is val...
图神经网络(GNN)通过聚合节点与其邻居的特征信息进行计算,通过多轮迭代,每个节点的表示向量包含了整个图的结构信息。GNN的每一层计算方式包括了聚合(AGGREGATE)和结合(COMBINE)节点特征的过程。关键在于聚合函数和读取函数的设计,若它们是单射,且层数足够多,GNN能将非同构图映射到不同的表示空间。
HOW POWERFUL ARE GRAPH NEURAL NETWORKS? https://openreview.net/group?id=ICLR.cc/2019/Conference 我们对GNN的表示性质和局限了解有限,这里,我们提出一个理论框架来分析GNN的表示能力, 我们的研究灵感来自Weisfeiler-Lehman (WL) 图同构测试, ...