与graphsage对比:训练方式和graphsage类似,GraphSAGE是通过邻居采样来减少节点个数,GAT如果可以学习到稀疏的权重系数,相当于也是一种采样 GraphSAGE和GAT是怎么inductive学习的: GCN原本使用了归一化邻接矩阵,新加入节点时要重新计算该矩阵,这是导致transductive的根源,计算需要改变该矩阵的信息,归一化矩阵已经整体变动,再次前...
GraphSAGE 的基本思想是:不学节点的下标,只学节点的特征。 如上表,我们只需要知道一个人是不是喜欢唱跳 rap 篮球就好了,至于这个人是谁,我们并不关心。 3. GraphSAGE 的简单实现 3.1 Cora 数据集 Cora 数据集是一个经典的图数据集,GraphSAGE 的作者也在 Demo 中用了这个数据集。 Note:Cora 是一个论文引用...
当然,GraphSAGE也有一些缺点,每个节点那么多邻居,GraphSAGE的采样没有考虑到不同邻居节点的重要性不同,而且聚合计算的时候邻居节点的重要性和当前节点也是不同的。 3. Graph Attention Networks(GAT)[9] 为了解决GNN聚合邻居节点的时候没有考虑到不同的邻居节点重要性不同的问题,GAT借鉴了Transformer的idea,引入masked ...
最后就是大家喜闻乐见的暴打 benchmarks 的环节,GAT 在三个数据集上达到了当时的 SOTA。 GraphSAGE GraphSAGE 由Inductive Representation Learning on Large Graphs提出,该方法提供了一种通用的归纳式框架,使用结点信息特征为未出现过的(unseen)结点生成结点向量,这一方法为后来的 PinSage(GCN 在商业推荐系统首次成功...
GraphSAGE针对GCN无法快速表示新节点的问题提出,它具有诱导式(inductive)特性,训练阶段与测试阶段的图结构不同。GraphSAGE通过聚合邻居节点的信息来生成新节点的表示,引入了一种算法框架,通过K次聚合函数将邻居信息聚合到当前节点,实现新节点表示的生成。聚合函数的选择使得当前节点与邻居节点的表示相关性...
然而,GAT也有其局限性。首先,GAT的计算复杂度较高,因为它需要计算每对节点之间的注意力分数。此外,GAT同样不能很好地处理动态图形和异质图形。此外,尽管GAT通过注意力机制增强了模型的表达能力,但这也增加了模型的复杂性和不稳定性。 三、GraphSAGE的缺点
GNN与传统神经网络的区别在于:GNN通过在每个节点上分别传播信息,忽略节点顺序;利用边表示节点间依存关系,而不是通过节点特征间接表达;GNN尝试从非结构化数据中生成结构化的图来产生更高级的AI系统。GNN模型分为多种类型,如GCN、GraphSAGE和GAT。GCN通过传播方式将节点的高维邻接信息降维,可捕捉全局信息...
tips:GraphSAGE中提出的另一个模型使用相同的更新规则,只是设置了cij=|N(i)|。 而对于GAT引入了注意机制来代替静态归一化卷积运算。根据l层的嵌入计算l+1层节点嵌入h(l+1)i的公式如下: 式(1)为下层嵌入h(l)i的线性变换,W(l)为其可学习权矩阵。