GAE (graph autoencoder) 关于图自编码器的起源,这一篇文章给出了详细的介绍:https://zhuanlan.zhihu.com/p/114914664 这里便不再多做赘述,给出具体的 Encoder 和 Decoder 的定义。 Encoder : GCN (1)Z=GCN(X,A) GCN 具体为两层: (2)GCN(X,A)=A^ReLU(A^XW0)W1 其中A为标准化后的邻节矩阵,A^=...
对比学习,一种在很大程度上依赖于结构数据增强和复杂的训练策略方法,在graph上是主要的SSL。 在本文中,作者研究了对 GAE 发展产生负面影响的关键问题——重建目标、训练鲁棒性、误差指标,然后提出了GraphMAE(masked graph autoencoder),这缓解了生成自监督图预训练的这些问题。作者建议不是重建图结构,而是使用掩蔽策略...
本文基于2023年4月6日发表于SCIPEERJ COMPUTER SCIENCE(PEERJ计算机科学)上的一篇名为《基于正则化的图自编码器在推荐算法中的应用》(Application of graph auto-encoders based on regularization in recommendation algorithms)的文章。 本文将基于摘要和部分正文总结一些心得,记录一下自己的学习进程。 需要下载查看这...
图自动编码器(Graph Autoencoders) Graph Autoencoder (GAE)和Adversarially Regularized Graph Autoencoder (ARGA) 图自编码器的其它变体有: 具有反向正则化自动编码器的网络表示Network Representations with Adversarially Regularized Autoencoders (NetRA) 用于图表示的深度神经网络Deep Neural Networks for Graph Represe...
和我相连的那些节点权重就是这里面的表征,xi是这样表征,autoencoder之后会形成新的表征,我们去衡量它原始的表征和新的表征之间的相似度,就是我们优化的一个点。xi用邻居的信息来表征它自身特征的,其实是global的概念。(原文当中的图是错的,这个地方是local,这个是global,其实我们反过来看,应该是画错了,这个词画错...
论文地址:download 论文代码:download 知乎只是本文文章中转站,详细内容参考本人博客园论文解读(GraphMAE)《GraphMAE: Self-Supervised Masked Graph Autoencoders》 1 Introduction GAE 研究困难之处: 首先,过度强调结构信息。 大多数 GAEs 利用重建边连接作为目标来鼓励邻居 [3,17,20,26,31,42] 之间的拓扑紧密性。
标签:Edge Representation Learning, Variational AutoEncoder, Social Network 概述:本文同样聚焦于社交网络中边的表示学习,其核心思想在于认为节点之间的交互隐含着多种话题,且占比不同,这种话题能够通过节点之间的交互文本体现,因此本文聚焦于此对于边的信息与表示进行建模。具体来讲,本文提出了新的模型Topic-GCN,通过类...
这篇文章又用了另外一种思路,非监督的 autoencoder 方式,来得到 Embedding 表示,我们先来看右侧这个图,global Embedding 的图的结构。它的 Embedding 表示什么呢?和我相连的那些节点权重就是这里面的表征,xi 是这样表征,autoencoder 之后会形成新的表征,我们去衡量它原始的表征和新的表征之间的相似度,就是我们优化...
本文通过循环(在文中表示为LSTM)和稠密(在文中表现为autoencoder)网络学习图中的时间变换。 Conclusion 本文介绍了动态网络中用于捕获时间模式的dyngraph2vec模型。它学习了单个节点的进化模式,并提供了一种能够更精确地预测未来链接的嵌入方式。基于具有不同功能的架构,提出了模型的三种变体。实验表明,我们的模型可以在...
我们将图神经网络划分为五大类别,分别是:图卷积网络(Graph Convolution Networks,GCN)、图注意力网络(Graph Attention Networks)、图自编码器( Graph Autoencoders)、图生成网络( Graph Generative Networks)和图时空网络(Graph Spatial-temporal Networks) Directed Graphs(有向图) ...