本colab主要实现:实现GraphSAGE和GAT模型,应用在Cora数据集上。使用DeepSNAP包切分图数据集、实现数据集转换,完成边属性预测(链接预测)任务。
这个embedding的目的是计算 node embedding 与之前[0,1]标签是否相符 colab 2 node classification (Node Property Prediction) 这个colab就要求使用pytorch geometric和Open Graph Benchmark(OGB)。 实施的是这个模型ICLR17: Semi-supervised Classification with Graph Convolutional Networks ogbn-arxiv数据集是一个较小...
方法2 引入一个virtual node 方法3 匿名walk embedding ▪ Idea 1: Sample the anon. walks and represent the graph as fraction of times each anon walk occurs. ▪ Idea 2: Learn graph embedding together with anonymous walk embeddings. lec4 pagerank 这是一个给页面排序的算法,也有相应的作业. In...
20节课,读懂图机器学习和GNN 课程共20节,大家可以一边学习课程内容,一边按照日程安排里的homework(书面作业)和Colab(代码编写)来巩固练习。一月份共6节课 第1节主要讲网络/图论的一些基本知识,包括图的四大属性,网络模型分类等知识。推荐使用官方的snap包来进行之后作业的实操;2-3节主要讲特征学习(Motifs,...
3. 节点预测任务 这一部分colab应该是参考了 ogb/gnn.py at master · snap-stanford/ogb 的GCN部分代码。 3.0 导包 import torchimport torch.nn.functional as F# The PyG built-in GCNConvfrom torch_geometric.nn import GCNConvimport torch_geometric.transforms as Tfrom ogb.nodeproppred import PygNo...
colab1 torch.ones全1 torch.zeros全0 torch.rand0-1随机 x.shapeshape x.dtype数据类型 zeros = torch.zeros(3, 4, dtype=torch.float32)使用数据类型 zeros = zeros.type(torch.long)改变数据类型 使用torch进行梯度下降: deftrain(emb, loss_fn, sigmoid, train_label, train_edge):#TODO:Train the ...
课程共20节,大家可以一边学习课程内容,一边按照日程安排里的homework(书面作业)和Colab(代码编写)来巩固练习。 一月份共6节课 第1节主要讲网络/图论的一些基本知识,包括图的四大属性,网络模型分类等知识。推荐使用官方的snap包来进行之后作业的实操; 2-3节主要讲特征学习(Motifs, Graphlets, Graph Kernels)和节点嵌...
West & Leskovec 之前在没有使用图神经网络 [1] 的情况下解决了类似的问题。Cordonnier & Loukas 还使用 Wikispeedia 图[2] 上的非回溯随机游走的图卷积网络解决了这个问题。我们的技术与这两篇论文都不同并且也取得了很好的效果。 在文章的最后还会提供 GitHub和Colab 的完整代码。
课程共20节,大家可以一边学习课程内容,一边按照日程安排里的homework(书面作业)和Colab(代码编写)来巩固练习。 一月份共6节课 第1节主要讲网络/图论的一些基本知识,包括图的四大属性,网络模型分类等知识。推荐使用官方的snap包来进行之后作业的实操; 2-3节主要讲特征学习(Motifs, Graphlets, Graph Kernels)和节点嵌...
colab3 的难点就在这里. message 计算 对于所有邻居 node 计算出message. 例如, 一个linear layer, 把node feature [num node, node feature ]矩阵乘上一个权重矩阵. aggregation 从邻居那里聚合message. sum( [ message for message in neighbor ] ) 例如, sum, max, min 就是aggregation. 考虑自己 除了...