4. Graph Isomorphism Network (GIN) 4.1 Theoretical basis GIN 的设计目的:希望将同构的图映射到相同的表示,而将非同构的图映射到不同的表示。 作者发现如果 aggregation mechanism 和 graph-level readout 函数是内射的,那么所得到的 GNN 与 WL test 一样强大,并给出如下定理: Theorem:令\mathcal{A}:\math...
论文标题:How Powerful are Graph Neural Networks论文作者:Keyulu Xu, Weihua Hu, J. Leskovec, S. Jegelka论文来源:2019, ICLR论文地址:download 论文代码:download 1 IntroductionGNN 目前主流的做法是递归迭代聚合一阶邻域表征来更新节点表征,如 GCN 和 GraphSAGE,但这些方法大多是经验主义,缺乏理论去理解 GNN ...
《How Powerful are Graph Neural Networks》是从WL Test的角度,对执行节点特征嵌入/图分类任务的GNN性能上限,进行理论分析的论文。 论文相关的知识列表整理如下,对于Ref.X标注的扩展理解章节,读者可以选择性阅读。 Weisfeiler-Lehman(WL) Test。 Supplementary Proof。 1 论文整体逻辑 从问题、方法、贡献这三点,初步...
在 Section.5 我们研究了当下流行的 GNN variants 并且发现它们的聚合方式都本质上不满足 injective 的特性,因此其模型的表征能力都不太强,但这些模型也可以捕获到 Graph 的其他的有趣的属性。 4 BUILDING POWERFUL GRAPH NEURAL NETWORKS 首先我们给出了 GNN 模型的最大表征能力,即具备单射性的聚合策略。理想情况...
本文介绍的论文是《How Powerful are Graph Neural Networks?》。 作者提出了一个新的图神经网络框架GIN来捕捉图结构信息,经作者测试该GNN是最具表现力的,能够与Weisfeiler - Lehman图同构测试一样强大,在多个图分类基准上达到了最先进的性能。 🍁一、背景 ...
图神经网络(GNN)通过聚合节点与其邻居的特征信息进行计算,通过多轮迭代,每个节点的表示向量包含了整个图的结构信息。GNN的每一层计算方式包括了聚合(AGGREGATE)和结合(COMBINE)节点特征的过程。关键在于聚合函数和读取函数的设计,若它们是单射,且层数足够多,GNN能将非同构图映射到不同的表示空间。
Second, we find that the graph isomorphism hypothesis proposed by [Xu, K.; et al How powerful are graph neural networks? 2018, arXiv:1810.00826. arXiv.org e-Print archive. https://arxiv.org/abs/1810.00826] is valid for the ... D Hwang,S Yang,Y Kwon,... - 《Journal of Chemical ...
GNNs的聚合框架可以看作是multiset函数。 multiset:包含重复元素的集合。 聚合: 如果有两层聚合,无论是GCN还是WL test,以蓝色节点为例,先由其二阶邻居信息聚合得到一阶邻居节点信息,再由一阶邻居信息聚合得到自己。 WL test 是由单射函数(hash,不同输入得到不同输出)聚合 ...
PublishedasaconferencepaperatICLR2019HOWPOWERFULAREGRAPHNEURALNETWORKS?KeyuluXu∗†MITkeyulu@mit.eduWeihuaHu∗‡StanfordUniversityweihuahu@stanford.eduJureLeskovecStanfordUniversityjure@cs.stanford.eduStefanieJegelkaMITstefje@mit.eduABSTRACTGraphNeuralNetworks(GNNs)areaneffectiveframeworkforrepresentationlearning...
How Powerful are Spectral Graph Neural Networks. Contribute to GraphPKU/JacobiConv development by creating an account on GitHub.