Graph Self-Supervised Learning: A Surveyieeexplore.ieee.org/abstract/document/9770382 PDF: https://arxiv.org/pdf/2103.00111.pdfarxiv.org/pdf/2103.00111.pdf 1. 背景与概括 图的深度学习作为一个热门领域引起了广泛的研究兴趣,但是由于当前研究大多集中在半监督或者监督学习上,存在标签依赖严重、泛...
E. Buchatskaya, C. Doersch, B. Avila Pires, Z. Guo, M. Ghesh- laghi Azar, B. Piot, k. kavukcuoglu, R. Munos, and M. Valko, “Bootstrap your own latent - a new approach to self-supervised learning,” in NeurIPS, vol. 33, 2020, pp. 21 271–21 284. ...
Multi-stage self-supervised learning for graph convolutional networks on graphs with few labeled nodes. AAAI, 2020. Deep clustering for unsupervised learning of visual features. ECCV, 2018. When does self-supervision help graph convolutional networks?. ICML, 2020. Pre-training graph neural networks f...
图上的深度学习最近引起了人们的极大兴趣。然而,大多数工作都集中在(半)监督学习上,导致存在标签依赖重、泛化能力差和鲁棒性弱等缺点。为了解决这些问题,自监督学习 (SSL) 通过精心设计的借口任务提取信息知识,而不依赖于手动标签,已成为图数据的一种有前途和趋势的学习范式。与计算机视觉和自然语言处理等其他领域中...
自监督学习(二)《Scaling and Benchmarking Self-Supervised Visual Representation Learning》 任务,也就是说自监督模型在这里只是一个特征提取器。 ScalingSelf-supervisedLearning首先作者实验自监督学习的伸缩性,即通过变化数据集的规模、增加模型的容量以及增加网络...依然是对的。以下是我根据作者的结论和实验,结合自...
https://github.com/LirongWu/awesome-graph-self-supervised-learning 近些年来,图上的深度学习在各种任务上取得了显著的成功,而这种成功在很大程度上依赖于海量的、精心标注的数据。然而,精确的标注通常非常昂贵和耗时。为了解决这个问题,自监督学习(Self-supervised Learning,SSL)正在成为一种全新的范式,通过精心设计的...
论文标题:Data Augmentation for Deep Graph Learning: A Survey 论文作者:Kaize Ding, Zhe Xu, Hanghang Tong, Huan Liu 论文来源:2022, arXiv 论文地址:download 1 介绍 本文主要总结图数据增强,并对该领域的代表性方法做出归类分析。 DGL 存在的两个问题: ...
论文:Attention-based Graph Neural Network for semi-supervised learning 代码:dawnranger/pytorch-AGNN...
论文:Attention-based Graph Neural Network for semi-supervised learning 代码:dawnranger/pytorch-AGNN...
【Arxiv-2021】【IEEE members/fellows】Graph Self-Supervised Learning: A Survey 核心要点 文章旨在对现有图神经网络的方法进行全面的总结和分类,并给出常用的数据集、评估基准、方法间的性能比较和开源代码链接。图的深度学习的热度与日俱增,但大多数工作集中在(半)监督学习上。对比标签的严重依赖导致模型泛化能力...