最近笔者重新读起了GraphSAGE,想着用torch_geometric重新实现一遍。话不多是,直接上代码。 GraphSAGE提出的聚合与更新公式可以写作: xi′=W·CONCAT(AGGREGATEj∈N(i)xj,xi) 如果我们将W列分块为(W1;W2),那么上式可以写作: xi′=W1·xi+W2·AGGREGATEj∈N(i)xj 不难看到,GraphSAGE就是将邻居的特征进行聚合,...
权值矩阵 W 中的上标与下标分别表示层数和参数的序号, 与 的第二维度之和等于 的第二维度。对于 GraphSAGE 以及 GCNII,它们与 GCN 有相似的架构,故本文对其有相同的修改策略。 LAGAT:类似地,LAGAT 的第一层可表示为: 其中α 为注意力系数,可在 或 上进行计算。 1.4 损失函数 1.4.1 监督损失 本文将原始特...
nn import GraphSAGE Expand Down Expand Up @@ -281,10 +282,10 @@ def run_training_proc( ) train_file = osp.join(root_dir, f'{args.dataset}-train-partitions', f'partition{data_pidx}.pt') train_idx = torch.load(train_file) train_idx = fs.torch_load(train_file) test_file = ...
前言:GraphSAGE和GCN相比,引入了对邻居节点进行了随机采样,这使得邻居节点的特征聚合有了泛化的能力,可以在一些未知节点上的图进行学习顶点的embedding,而GCN是在一个确定的图中去学习顶点的embedding。 1 图…