论文地址:Kipf T N, Welling M. Variational graph auto-encoders[J]. NIPS, 2016. 代码地址: https://github.com/tkipf/gae图神经网络可以细分为五类:图卷积网络、图注意力网络、图时空网络、图生成网络和图自…
论文:S2GAE: Self-Supervised Graph Autoencoders Are Generalizable Learners with Graph Masking 作者:Qiaoyu Tan, Ninghao Liu, Xiao Huang, Soo-Hyun Choi, Li Li, Rui Chen, Xia Hu 来源:WSDM2023 Background 自监督学习(SSL Self-supervised learning)已经在自然语言处理(NLP)和计算机视觉(CV)领域进行了广泛...
论文信息论文标题:Graph Auto-Encoder via Neighborhood Wasserstein Reconstruction论文作者:Shaked Brody, Uri Alon, Eran Yahav论文来源:2022,ICLR论文地址:download 论文代码:download 1 Abstract提出了一种新的图自编码器,其中 Encoder 为普通的 GAE,而 Decoder 实现了特征重建、度重建,以及一种基于 2-Wasserstein ...
论文标题:GraphMAE: Self-Supervised Masked Graph Autoencoders论文作者:Zhenyu Hou, Xiao Liu, Yukuo Cen, Yuxiao Dong, Hongxia Yang, Chunjie Wang, Jie Tang论文来源:2022, KDD论文地址:download 论文代码:download 1 IntroductionGAE 研究困难之处:...
Similarity Integration with Attentive Multi-view Graph Autoencoders 基础的多视图GraphCNN结构 给定视图 ,视图的邻接矩阵和对角阵定义如下: 并使用两层的GraphCNN来学习节点嵌入表示: 对应的权重矩阵。对于得到的 ,以拼接的方式得到新的节点表示 。两个节点之间的连接预测由sigmoid函数得到。
论文(基于内容的推荐系统):GraphCAR: Content-aware Multimedia Recommendation with Graph Autoencoder,论文研读、翻译与模型实现:GraphCAR:Content-awareMultimediaRecommendationwithGraphAutoencoder
论文代码:download 知乎只是本文文章中转站,详细内容参考本人博客园论文解读(GraphMAE)《GraphMAE: Self-Supervised Masked Graph Autoencoders》 1 Introduction GAE 研究困难之处: 首先,过度强调结构信息。 大多数 GAEs 利用重建边连接作为目标来鼓励邻居 [3,17,20,26,31,42] 之间的拓扑紧密性。该类型方法适用与...
前几天的文章中我们提到MAE在时间序列的应用,本篇文章介绍的论文已经将MAE的方法应用到图中,这是来自[KDD2022]的论文GraphMAE: Self-supervised Masked Graph Autoencoders 生成学习与对比学习 自监督学习从大量的无监督数据中挖掘出自己需要的的监督信息。与监督学习相比,它使用来自数据集本身的信息来构建伪标签。
《Variational Graph Auto-Encoders (VGAE)》T N. Kipf, M Welling [University of Amsterdam] (2016) http://t.cn/Rf9wcYO