即图的节点和连边可能有动态的删增,同时这也是一个未来的研究方向;第九节中还提到未来的研究方向之一是加强其扩展性,这就要求对图进行 sampling 或者 clustering,其实这有点像我们想要做的 aggregation(这让我想到 Wang Mengdi 做的 anchor state 啥的,瞎联想)。
基于GNN的层次人脸聚类-Learning Hierarchical Graph Neural Networks for Image Clustering 柠濛 25 人赞同了该文章 一、简介 本次介绍的文章来自CVPR 2021,是目前图像聚类领域比较新的一篇文章,作者来自亚马逊aws。 本文提出了一种有监督的层次GNN模型,使用一种新方法融合每一层的的连接分量,从而在下一层形成新的图...
Deep clusteringGraph neural networksInter-cluster distanceIntra-cluster distanceOptimization method? 2023 Elsevier B.V.Deep clustering plays an important role in data analysis, and with the prevalence of graph data nowadays, various deep clustering models on graph are constantly proposed. However, due ...
1.随机挑选一个cluster进行训练(coarse clustering) 2.随机挑选 k 个cluster,然后连接他们再进行训练(stochastic multiple clustering) 3.2 GraphSAINT 论文标题:GraphSAINT: Graph Sampling Based Inductive Learning Method 论文来源:ICLR2020 论文方向:图卷积网络 论文链接:https://arxiv.org/abs/1907.04931 主要思路:先...
在此基础上,作者提出了基于图聚类结构的新算法——Cluster GCN,并设计了一个随机多聚类框架(「stochastic multi-clustering framework」)来提高 Cluster-GCN 的收敛性,从而降低了内存消耗和计算消耗。 2.Cluster-GCN 我们知道,基于 mini-batch 的 SGD 可以在单个 epoch 中更新多次,从而使得其比 full batch 具有更快...
1.随机挑选一个cluster进行训练(coarse clustering) 2.随机挑选 k 个cluster,然后连接他们再进行训练(stochastic multiple clustering) 3.2 GraphSAINT 论文标题:GraphSAINT: Graph Sampling Based Inductive Learning Method 论文来源:ICLR2020 论文方向:图卷积网络 ...
作者的理论分析也表明,在谱聚类(spectral clustering)粗化后的图上做的 APPNP 训练,等价于在原图上做受限的 APPNP 训练。但是,和图采样方法一样,基于图粗化的方式也是需要对数据进行预处理,时间开销和实验效果和粗化算法的选择有关。 同样的上述介绍的几种基于采样或者简化的图模型扩展方法同样也是方法都是相互解耦的...
该方法通用简单并且具有线性的训练时间和空间。作者的理论分析也表明,在谱聚类(spectral clustering)粗化后的图上做的 APPNP 训练,等价于在原图上做受限的 APPNP 训练。但是,和图采样方法一样,基于图粗化的方式也是需要对数据进行预处理,时间开销和实验效果和粗化算法的选择有关。
上式表明Cheeger 常量对应着特征值的上下界,更小的常量对应更小的特征值,也对应着更内聚(clustering)的子图,反之对应更大的特征值,此时图结构中的子图更为平滑(smoothing);因此,在这部分里,作者设计了一个函数 g 用于控制特征值的取值范围,此时的图Fourier变换为 ...
1.随机挑选一个cluster进行训练(coarse clustering) 2.随机挑选 k 个cluster,然后连接他们再进行训练(stochastic multiple clustering) 3.2 GraphSAINT 论文标题:GraphSAINT: Graph Sampling Based Inductive Learning Method 论文来源:ICLR2020 论文方向:图卷积网络 ...