作者将图上深度学习方法总结为五类: 图循环神经网络 Graph RNNs 图循环神经网络大致分为两类:节点级别循环神经网络和图级别循环神经网络。主要区别在于模式是位于节点级别并由节点状态建模,还是位于图级别并由公共图状态建模。 节点级别循环神经网络 也被叫做图神经网络GNNs,其想法很简单:编码图结构信息,每个节点由一...
论文中把研究方向分为五个方面: 图循环神经网络(Graph recurrent neural networks) 图卷积神经网络(Graph convolutional networks) 图自编码(Graph autoencoders) 图强化学习(Graph reinforcement learning) 图对抗方法(Graph adversarial methods) 这里会主要记录第二部分卷积神经网络的内容。 图卷积网络可以说是最热门的...
《Deep Learning on Graphs: A Survey》。 Zhang Z, Cui P, Zhu W. Deep learning on graphs: A survey[J]. IEEE Transactions on Knowledge and Data Engineering, 2020. 18年的一篇GNN综述,读完之后,感觉GCN那一部分对我帮助还不小,帮我理清了脉络,也可能是因为之前把《Graph Representation Learning》这本...
图自动编码器 (graph autoencoder,GAE),GAE 假设低秩图结构,并采用无监督方法进行节点表示学习。 图强化学习(graph reinforcement learning,Graph RL),图 RL 定义了基于图的动作和奖励,以在遵循约束的同时获得有关图任务的反馈。 图对抗方法(graph adversarial methods),图对抗方法采用对抗训练技术来增强基于图的模型...
Contrastive Multi-View Representation Learning on Graphs 在图上用最大化互信息MI来学习表示,主要延伸GraphInfoMax 和SimSLR,又有孪生网路的结构又用了对比互信息。 最大化从图的不同结构视图编码的表示之间的MI来引入自监督方法来训练图编码器。 观点 将视图数量增加到两个以上不会提高性能,就用两个对比就行 ...
翻译:How to do Deep Learning on Graphs with Graph Convolutional Networks 什么是图卷积网络 图卷积网络是一个在图上进行操作的神经网络。给定一个图G=(E,V)G=(E,V),一个GCN的输入包括: 一个输入特征矩阵X,其维度是N×F0N×F0,其中N是节点的数目,F0F0是每个节点输入特征的数目 ...
Temporal Graph Attention (attn):一系列L图注意层通过汇总来自其L跳时间邻域的信息来计算i的嵌入。第l层的输入是i表示 ,当前时间戳t,i邻域表示 以及时间戳 下对于在i的时间邻域中形成边的每个考虑的相互作用, 在此,φ(·)表示通用时间编码,k是级联运算符,zi(t)= emb(i,t)= h(L)i(t)。每层相当于执...
Machine learning on graphs is a difficult task due to the highly complex, but also informative graph structure. This post is the first in a series on how to do deep learning on graphs with Graph…
Python package built to ease deep learning on graph, on top of existing DL frameworks. - dmlc/dgl
Graph deep learning research工具包,现有的图深度学习工具包:PyTorchGeometric(PyG)DeepGraphLibrary(DGL)DIG:graphgeneration,self-supervisedlearning,explainability,and3Dgraphs.Github:...