论文:S2GAE: Self-Supervised Graph Autoencoders Are Generalizable Learners with Graph Masking 作者:Qiaoyu Tan, Ninghao Liu, Xiao Huang, Soo-Hyun Choi, Li Li, Rui Chen, Xia Hu 来源:WSDM2023 Background 自监督学习(SSL Self-supervised learning)已经在自然语言处理(NLP)和计算机视觉(CV)领域进行了广泛...
Li J, Lu G, Wu Z, et al. Multi-view representation model based on graph autoencoder[J]. Information Sciences, 2023, 632: 439-453. 摘要导读: 当一些数据的标签缺失的时候,图自编码器和图变分自编码器往往在节点聚类和连接划分的任务重能显示较为出色的性能。然而,现存的图表示学习忽略了数据多个模态...
论文:GraphMAE: Self-Supervised Masked Graph Autoencoders 作者:Zhenyu Hou, Xiao Liu, Yukuo Cen, Yuxiao Dong, Hongxia Yang, Chunjie Wang, Jie Tang 来源:KDD2022 Background 自监督学习(Self-supervised Learning SSL)在计算机视觉(CV)和自然语言处理(NLP)中得到了广泛的应用。它一般可分为生成性(genera...
论文标题:MaskGAE: Masked Graph Modeling Meets Graph Autoencoders论文作者:Jintang Li, Ruofan Wu, Wangbin Sun, Liang Chen, Sheng Tian...论文来源:2022,arXiv论文地址:download 论文代码:download 1 IntroductionMAE 在图上的应用。2 Related work and Motivation2.1 GAE GAEs采用...
论文信息论文标题:GraphMAE: Self-Supervised Masked Graph Autoencoders论文作者:Zhenyu Hou, Xiao Liu, Yukuo Cen, Yuxiao Dong, Hongxia Yang, Chunjie Wang, Jie Tang论文来源:2022, KDD论文地址:download 论文代码:download 1 IntroductionGAE 研究困难之处:...
简述:有鉴于此,作者提出了一种简单而有效的图掩蔽自动编码增强序列推荐系统(MAERec),该系统自适应地,动态提取全局项目交互信息,用于自监督增强。自然避免了上述严重依赖于构建高质量嵌入对比视图的问题。相反,自适应数据重建范式被设计为与长期项目依赖性建模相集成,以在顺序推荐中提供信息。
论文(基于内容的推荐系统):GraphCAR: Content-aware Multimedia Recommendation with Graph Autoencoder,论文研读、翻译与模型实现:GraphCAR:Content-awareMultimediaRecommendationwithGraphAutoencoder
对于图,GAE (Graph Autoencoder)重建图的结构信息或节点特征。现有的图数据动编码器大多着眼于链接预测和图数据聚类目标,因此通常会选择重构图数据的结构信息,即邻接矩阵a。所以近年来图数据自编码器的进展远远落后于对比学习,在分类等任务上的表现并不令人满意。节点分类、图分类等任务的SOTA都是基于对比学习的...
论文笔记:Adversarially Regularized Graph Autoencoder for Graph Embedding,程序员大本营,技术文章内容聚合第一站。
论文笔记:Adversarially Regularized Graph Autoencoder for Graph Embedding 而不是机械的记忆 对抗正则化图自动编码器(ARGA)和对抗正则化变图自动编码器(ARVGA),**不仅使图形结构的重构误差最小,而且使潜码与先验分布匹配。**算法将图数据encoder在code中...邻接矩阵 AAA和代表节点内容信息的节点特征向量 XXXencoder...