论文名:Self-supervised graph learning for recommendation 源代码:SGL 目录: 背景介绍 预备知识 自监督图学习(SGL)范式 实验结果 总结 1.背景介绍 基于用户-物品二部图推荐的表征表示学习已经从使用单一ID或交互历史演变到利用高阶邻居学习。基于这个思想,图卷积网络(graph convolution networks,GCNs)在推荐系统中取得...
GCNS中的邻域聚合机制放大了交互对表示学习的影响,使得学习更容易受到交互噪声的影响。 2 拟解决的问题 高度节点对表示学习的影响更大,影响低度(长尾)项目的推荐; 表示容易受到噪声交互的影响,因为邻域聚合方案进一步扩大了噪声的影响 3 主要贡献 设计了一种新的学习范式SGL,它将节点我自分辨作为自监督任务,为表征...
为此,我们设计了三种数据增强操作:节点随机删除(node dropout)、边随机删除(edge dropout)和随机游走(random walk),并将其统称为Self-supervised Graph Learning(SGL)自监督图学习。在介绍SGL之前,我们先回顾基于图卷积网络(Graph Convolution Networks, GCNs)的协同过滤模型的常规范式。通过图结构...
Cluster-aware graph neural networks for unsupervised graph representation learning. arxiv preprint. Self-supervised graph transformer on large-scale molecular data. NeurIPS, 2020.
In this paper, we propose a novel self-supervised graph representation learning model with variational inference. First, we strengthen the semantic relation between node and graph level in a self-supervised manner to alleviate the issue of over-dependence on data labels. Second, we utilize the ...
探究了图上的自监督任务, 具体来说, 图有多种潜在的代理任务; 因此, 了解SSL在什么时候和为什么适用于GNN, 以及哪种策略可以更好地集成GNN的SSL是很重要的 在图上启发SSL的新方向. 特别是, 研究这些见解是如何激发更复杂的方法来设计代理任务的. 为了实现第一个目标,直接基于属性和结构信息设计了基本类型的代理...
论文题目:Self-Supervised Learning of Graph Neural Networks: A Unified Review 论文地址:https://arxiv.org/abs/2102.10757 1 Introduction 可以将SSL的前置任务分为两类:对比模型和预测模型。 两类的主要区别在于对比模型需要data-data对进行训练,而预测模型需要data-label对,其中label时从数据中自行生成的,如图1...
GraphLoG在大量未标记图上进行预训练,然后在下游任务上进行微调。实验在化学和生物基准数据集上证明了方法的有效性,化学领域的6个任务中优于其他自监督图方法,平均ROC-AUC性能提升2.1%。框架包含局部实例结构学习和全局语义结构学习两部分。局部结构学习保持数据映射的局部相似性,全局结构学习通过层次模型...
所以这里 x 是来自一幅图像的全局特征,正样本是该图像的局部特征,而负样本是其他图像的局部特征。这个工作的开创性很强,已经被应用到了其他领域,比如 graph [24]。 CPC CPC 同样是一个基于对比约束的自监督框架,主要是可以应用于能够以有序序列表示的任何形式的数据:文本、语音、视频、甚至图像(图像可以被视为...
首先, 由于很难改变GCNs固有的浅层结构, 如何设计一种基于GCNs的一致高效的训练算法来提高其在标签节点较少的图上的泛化性能? 其次, 如何利用基于大量未标记数据的自监督学习方法的优势, 来提高所提出的训练算法的性能? 贡献 我们首先探讨了在标签节点较少的图上GCNs的层效应的存在性, 揭示了GCNs需要更多的层来维...