GCNS中的邻域聚合机制放大了交互对表示学习的影响,使得学习更容易受到交互噪声的影响。 2 拟解决的问题 高度节点对表示学习的影响更大,影响低度(长尾)项目的推荐; 表示容易受到噪声交互的影响,因为邻域聚合方案进一步扩大了噪声的影响 3 主要贡献 设计了一种新的学习范式SGL,它将节点我自分辨作为自监督任务,为表征...
GRACE采用节点特征掩蔽和边删除策略,生成两个对比视图,并进行视图内否定和视图间否定;GCA进一步引入基于底层图属性的自适应增强图结构数据;GROC提出针对图连接的对抗性增强;GraphCL(N)进一步扩展到图结构数据,通过节点特征掩藏和边缘修改来生成两个对比视图;CGPN将泊松学习引入到节点级对比学习中;纯图上,GCC利用RW作为...
Cluster-aware graph neural networks for unsupervised graph representation learning. arxiv preprint. Self-supervised graph transformer on large-scale molecular data. NeurIPS, 2020.
3.节点表示容易收到噪声交互的影响。在本文中作者通过在用户-物品图上引入自监督学习来改善GCN在推荐系统上的准确率和鲁棒性,将其称为Self-supervised Graph Learning(SGL),并应用在LightGCN模型上。SGL是模型无关的,并通过辅助自监督任务来补充监督任务中的信息以达成上述目的。
We present the Topology Transformation Equivariant Representation learning, a general paradigm of self-supervised learning for node representations of graph data to enable the wide applicability of Graph Convolutional Neural Networks (GCNNs). We formalize the proposed model from an information-theoretic ...
论文题目:Self-Supervised Learning of Graph Neural Networks: A Unified Review 论文地址:https://arxiv.org/abs/2102.10757 1 Introduction 可以将SSL的前置任务分为两类:对比模型和预测模型。 两类的主要区别在于对比模型需要data-data对进行训练,而预测模型需要data-label对,其中label时从数据中自行生成的,如图1...
GraphLoG在大量未标记图上进行预训练,然后在下游任务上进行微调。实验在化学和生物基准数据集上证明了方法的有效性,化学领域的6个任务中优于其他自监督图方法,平均ROC-AUC性能提升2.1%。框架包含局部实例结构学习和全局语义结构学习两部分。局部结构学习保持数据映射的局部相似性,全局结构学习通过层次模型...
探究了图上的自监督任务, 具体来说, 图有多种潜在的代理任务; 因此, 了解SSL在什么时候和为什么适用于GNN, 以及哪种策略可以更好地集成GNN的SSL是很重要的 在图上启发SSL的新方向. 特别是, 研究这些见解是如何激发更复杂的方法来设计代理任务的. 为了实现第一个目标,直接基于属性和结构信息设计了基本类型的代理...
We present the Topology Transformation Equivariant Representation learning, a general paradigm of self-supervised learning for node representations of graph data to enable the wide applicability of Graph Convolutional Neural Networks (GCNNs). We formalize the proposed model from an information-theoretic per...
【Arxiv-2021】【IEEE members/fellows】Graph Self-Supervised Learning: A Survey 核心要点 文章旨在对现有图神经网络的方法进行全面的总结和分类,并给出常用的数据集、评估基准、方法间的性能比较和开源代码链接。图的深度学习的热度与日俱增,但大多数工作集中在(半)监督学习上。对比标签的严重依赖导致模型泛化能力...