(ICLR 2019 oral),这是一篇比较有名的文章,作者是来自MIT的xukeyulu,这篇论文算是比较早的想要从理论上分析GNN模型的表达能力的文章,在我们的博文中有详细的介绍,文章想要研究GNN在图同构测试中能力,通过和Weisfeiler-Leman对比,得到一个具有和Weisfeiler-Leman想当能力的图神经网络模型:这篇论文主要做了两点创新,第...
(ICLR 2019 oral),这是一篇比较有名的文章,作者是来自MIT的xukeyulu,这篇论文算是比较早的想要从理论上分析GNN模型的表达能力的文章,在我们的博文中有详细的介绍,文章想要研究GNN在图同构测试中能力,通过和Weisfeiler-Leman对比,得到一个具有和Weisfeiler-Leman想当能力的图神经网络模型: 这篇论文主要做了两点创新,...
(ICLR 2019 oral),这是一篇比较有名的文章,作者是来自MIT的xukeyulu,这篇论文算是比较早的想要从理论上分析GNN模型的表达能力的文章,在我们的博文中有详细的介绍,文章想要研究GNN在图同构测试中能力,通过和Weisfeiler-Leman对比,得到一个具有和Weisfeiler-Leman想当能力的图神经网络模型: 这篇论文主要做了两点创新,...
4.GATConv来自论文 Graph Attention Network (ICLR 2018) 也是GNN各种模型中一个比较知名的模型,在我们之前的博文中介绍过,一作是剑桥大学的Petar Velickovic,这篇文章是在Yoshua Bengio的指导下完成的。论文的核心思想是对邻居的重要性进行学习,利用学习到的重要性权重进行加权求和再对自身Embedding更新:其中 是邻居对...
可以看到,和之前介绍的GNN模型不同,邻居节点汇聚后Embedding不再直接加到自身Embedding上(GCN),也不再直接concat到自身Embedding上(GraphSAGE),而是采用GRU的方式汇聚,以保持对长依赖的建模。 12.GMMConv来自论文 Geometric Deep Learning on Graphs and Manifolds using Mixture Model CNNs (CVPR 2017) ,论文提出了一...