后来的很多GNN模型都采用了该论文提出的方法作为子模块。11.GatedGraphConv来自论文 Gated Graph Sequence Neural Networks,这篇论文是一篇早期的探索图神经网络中的长依赖的论文,一作是来自多伦多大学的Yujia Li,论文利用了时序建模中的GRU模块:可以看到,和之前介绍的GNN模型不同,邻居节点汇聚后Embedding 不再直接加到...
(ICLR 2019 oral),这是一篇比较有名的文章,作者是来自MIT的xukeyulu,这篇论文算是比较早的想要从理论上分析GNN模型的表达能力的文章,在我们的博文中有详细的介绍,文章想要研究GNN在图同构测试中能力,通过和Weisfeiler-Leman对比,得到一个具有和Weisfeiler-Leman想当能力的图神经网络模型: 这篇论文主要做了两点创新,...
ENADPool 是一种基于聚类的分层池化方法,它将节点分配给唯一的聚类,使用注意力机制计算节点重要性,并压缩节点特征和边连通性以供后续层使用。它涉及三个步骤:硬节点分配、基于节点的注意力和基于边的注意力,从而产生加权压缩的节点特征和邻接矩阵。MD-GNN 模型通过聚合来自不同距离的节点信息并重建图拓扑来捕获全面的...
这篇论文主要做了两点创新,第一,公式中的aggregate采用add而非大部分GNN模型中的mean pooling,第二,给节点自身的Embedding加了少许扰动。后来的很多GNN模型都采用了该论文提出的方法作为子模块。11.GatedGraphConv来自论文 Gated GraphSequence Neural Networks,这篇论文是一篇早期的探索图神经网络中的长依赖的论文,一作...
这篇论文主要做了两点创新,第一,公式中的aggregate采用add而非大部分GNN模型中的mean pooling,第二,给节点自身的Embedding加了少许扰动。后来的很多GNN模型都采用了该论文提出的方法作为子模块。 11.GatedGraphConv来自论文 Gated Graph Sequence Neural Networks,这篇论文是一篇早期的探索图神经网络中的长依赖的论文,一...
这篇论文主要做了两点创新,第一,公式中的aggregate采用add而非大部分GNN模型中的mean pooling,第二,给节点自身的Embedding加了少许扰动。后来的很多GNN模型都采用了该论文提出的方法作为子模块。 11.GatedGraphConv来自论文 Gated Graph Sequence Neural Networks,这篇论文是一篇早期的探索图神经网络中的长依赖的论文,一...