为了解决这个问题,自监督学习(Self-supervised Learning,SSL)正在成为一种全新的范式,通过精心设计的代理任务来提取富含语义信息的知识,而不依赖人工标注的数据。在本综述中,我们扩展了最早出现在计算机视觉和自然语言处理领域的自监督学习,对现有的图自监督学习(Graph Self-supervised Learning,Graph SSL)技术进行了及时...
Graph Self-Supervised Learning: A Surveyieeexplore.ieee.org/abstract/document/9770382 PDF: https://arxiv.org/pdf/2103.00111.pdfarxiv.org/pdf/2103.00111.pdf 1. 背景与概括 图的深度学习作为一个热门领域引起了广泛的研究兴趣,但是由于当前研究大多集中在半监督或者监督学习上,存在标签依赖严重、泛...
【图深度自监督学习Philips S. Yu团队重磅新作】Graph Self-Supervised Learning: A Survey,程序员大本营,技术文章内容聚合第一站。
Cluster-aware graph neural networks for unsupervised graph representation learning. arxiv preprint. Self-supervised graph transformer on large-scale molecular data. NeurIPS, 2020.
图上的深度学习最近引起了人们的极大兴趣。然而,大多数工作都集中在(半)监督学习上,导致存在标签依赖重、泛化能力差和鲁棒性弱等缺点。为了解决这些问题,自监督学习 (SSL) 通过精心设计的借口任务提取信息知识,而不依赖于手动标签,已成为图数据的一种有前途和趋势的学习范式。与计算机视觉和自然语言处理等其他领域中...
本文旨在探索自监督学习(Self-supervised Learning, SSL)在用户-物品二部图推荐系统中的应用,以增强模型训练学习过程。通过自监督学习,我们旨在学习更为鲁棒的节点表示,尤其强调通过图结构数据增强生成节点的多个视图,最大化同一节点不同视图间的一致性(正样本对),同时最小化不同节点视图间的一致性...
Self-supervised learningVariational inferenceGraph representation learning aims to convert the graph-structured data into a low dimensional space in which the graph structural information and graph properties are maximumly preserved. Graph Neural Networks (GNN)-based methods have shown to be effective in ...
step-1: View generation 我们首先为所有节点提取局部子图, 其中子图可以是r−hopegor−hopego(即每个节点周围的生成子图) 或由从每个节点开始的一组随机游走序列生成的子图. 实际上, 不同的选择不会显著影响结果, 并且RW(随机游走)对于密集图更有效. LetS={S1,S2,...,SN}S={S1,S2,...,SN}是为...
3.节点表示容易收到噪声交互的影响。在本文中作者通过在用户-物品图上引入自监督学习来改善GCN在推荐系统上的准确率和鲁棒性,将其称为Self-supervised Graph Learning(SGL),并应用在LightGCN模型上。SGL是模型无关的,并通过辅助自监督任务来补充监督任务中的信息以达成上述目的。
Liang Wang. 2020.Deep graph contrastive representation learning. arXiv preprint arXiv:2006.04131 1040 (2020).[9] Xiao Liu, Fanjin Zhang, Zhenyu Hou, Li Mian, Zhaoyu Wang, Jing Zhang, and Jie Tang. 2021. Self-supervised learning: Generative or contrastive. TKDE (2021).作者: Shaw99 ...