Graph Self-Supervised Learning: A Surveyieeexplore.ieee.org/abstract/document/9770382 PDF: https://arxiv.org/pdf/2103.00111.pdfarxiv.org/pdf/2103.00111.pdf 1. 背景与概括 图的深度学习作为一个热门领域引起了广泛的研究兴趣,但是由于当前研究大多集中在半监督或者监督学习上,存在标签依赖严重、泛...
此类方法就是随机的在图中插入或删除一定比例的边[9], [38], [51], [68], [73], [74],可以被形式化的表示为t_i(A) = M_1 \circ A + M_2 \circ (1-A),其中M_1, M_2分别表示边删除和插入矩阵,通过M_1, M_2随机mask掉A和(1-A)中等于1的元素来实现(M_1随机mask把一些原有边变为0...
Cluster-aware graph neural networks for unsupervised graph representation learning. arxiv preprint. Self-supervised graph transformer on large-scale molecular data. NeurIPS, 2020.
图上的深度学习最近引起了人们的极大兴趣。然而,大多数工作都集中在(半)监督学习上,导致存在标签依赖重、泛化能力差和鲁棒性弱等缺点。为了解决这些问题,自监督学习 (SSL) 通过精心设计的借口任务提取信息知识,而不依赖于手动标签,已成为图数据的一种有前途和趋势的学习范式。与计算机视觉和自然语言处理等其他领域中...
自监督学习(二)《Scaling and Benchmarking Self-Supervised Visual Representation Learning》 任务,也就是说自监督模型在这里只是一个特征提取器。 ScalingSelf-supervisedLearning首先作者实验自监督学习的伸缩性,即通过变化数据集的规模、增加模型的容量以及增加网络...依然是对的。以下是我根据作者的结论和实验,结合自...
论文标题:Data Augmentation for Deep Graph Learning: A Survey 论文作者:Kaize Ding, Zhe Xu, Hanghang Tong, Huan Liu 论文来源:2022, arXiv 论文地址:download 1 介绍 本文主要总结图数据增强,并对该领域的代表性方法做出归类分析。 DGL 存在的两个问题: ...
https://github.com/LirongWu/awesome-graph-self-supervised-learning 近些年来,图上的深度学习在各种任务上取得了显著的成功,而这种成功在很大程度上依赖于海量的、精心标注的数据。然而,精确的标注通常非常昂贵和耗时。为了解决这个问题,自监督学习(Self-supervised Learning,SSL)正在成为一种全新的范式,通过精心设计的...
self.attn_fc = nn.Linear(2 * out_dim, 1, bias=False) def edge_attention(self, edges...
self.attn_fc = nn.Linear(2 * out_dim, 1, bias=False) def edge_attention(self, edges...
【Arxiv-2021】【IEEE members/fellows】Graph Self-Supervised Learning: A Survey 核心要点 文章旨在对现有图神经网络的方法进行全面的总结和分类,并给出常用的数据集、评估基准、方法间的性能比较和开源代码链接。图的深度学习的热度与日俱增,但大多数工作集中在(半)监督学习上。对比标签的严重依赖导致模型泛化能力...