「Mean aggregator」均值聚合器,将邻居节点和当前节点的 Embedding 向量取均值,这与我们先前介绍的 GCN 有很多相似的地方(都是基于邻居节点进行聚合)。 「LSTM aggregator」LSTM 聚合器,因为 LSTM 具有强大的表达能力,但是 LSTM 是非对称的,为了解决这个问题,我们将只需将 LSTM 应用于节点邻居的随机排列,即可使 LSTM...
作者将GCN放到节点分类任务上,分别在Citeseer、Cora、Pubmed、NELL等数据集上进行实验,相比于传统方法提升还是很显著的,这很有可能是得益于GCN善于编码图的结构信息,能够学习到更好的节点表示。 图6 当然,其实GCN的缺点也是很显然易见的,第一,GCN需要将整个图放到内存和显存,这将非常耗内存和显存,处理不了大图;第...
GraphSAGE 是 2017 年提出的一种图神经网络算法,解决了 GCN 网络的局限性: GCN 训练时需要用到整个图的邻接矩阵,依赖于具体的图结构,一般只能用在直推式学习 Transductive Learning。GraphSAGE 使用多层聚合函数,每一层聚合函数会将节点及其邻居的信息聚合在一起得到下一层的特征向量,GraphSAGE 采用了节点的邻域信...
GCN网络每次学习都需要将整个图送入显存/内存中,资源消耗巨大。另外使用整个图结构进行学习,导致了GCN的学习的固化,图中一旦新增节点,整个图的学习都需要重新进行。这两点对于大数据集和项目实际落地来说,是巨大的阻碍。我们知道,GCN网络的每一次卷积的过程,每个节点都是只与自己周围的信息节点进行交互,对于单层...
GraphSAGE是为了学习一种节点表示方法,即如何通过从一个顶点的局部邻居采样并聚合顶点特征,而不是为每个顶点训练单独的embedding。这一点就注定了它跟其他方法不同的地方,对于新的节点信息,transdutive结构不能自然地泛化到未见过的顶点,而GraphSAGE算法可以动态的聚合出新节点的embeddinng信息。回顾一下GCN的问题:在...
取代原来为每个节点独立训练embedding的方法(原来的transductive 直推式的框架只能对固定的图生成embedding<GCN>,transductive 方法在处理以前从未见过的数据时效果不佳),GraphSAGE采用采样和聚合的方法,是一个inductive(归纳式的框架,归纳式能够处理图中新增的节点,或者通过之前学习的图的知识,用于新图label 的推断上),能...
GNN中经典的DeepWalk, GCN方法都是transductive learning,大多数节点嵌入模型都基于频谱分解/矩阵分解方法。而这些方法问题是矩阵分解方法本质上是transductive 的!简而言之,transductive 方法在处理以前从未见过的数据时效果不佳。这些方法需要整个图形结构的节点在训练时都出现,以生成节点嵌入。如果之后有新的节点添加到Gpa...
GCN 图神经网络基于巴拿赫不动点定理提出,但图神经网络领域的大发展是在 2013 年 Bruna 提出图上的基于频域和基于空域的卷积神经网络后。 关于图卷积神经网络的理解与介绍,知乎上的回答已经讲的非常透彻了。 如何理解 Graph Convolutional Network (GCN)?
传统的图神经网络(GNN)方法,如GCN等,在处理大规模图数据时存在计算复杂度高、难以扩展到新节点等问题。GraphSAGE旨在解决这些问题,它不依赖于对整个图的全局信息进行处理,而是通过对节点的邻居进行采样和聚合来学习节点的表示,从而能够高效地处理大规模图数据,并对从未见过的新节点进行泛化。
相比之下,GraphSAGE是"归纳式",通过采样邻居节点进行批训练,适用于超大图,且具有更好的泛化性。它可以为新节点生成embedding,学习节点和邻接节点间的映射关系,更灵活适应有向边,并支持多种聚合函数。尽管GraphSAGE看似优于GCN,但实际上两者在本质上相似,只是视角不同。GCN的公式展示了其核心思想—...