GraphSAGE:小虎AI珏爷:论文阅读:空域GCN GraphSAGE(SAmple and aggreGatE)直推式图表示学习 小虎AI珏爷:GCN图卷积节点分类模型代码(Pytorch) 小虎AI珏爷:GCN Pytorch实现(GCN、GraphSAGE、GAT) 名词解释 Transductive是指:训练阶段与推理阶段都基于同样的图结构。 Inductive是指:训练阶段与推理阶段需要处理的图不同。通...
作者在论文里用的tensorflow,但是也开源了一个简单, 容易扩展的pytorch版本。 pytorch版本中用的两个数据集都比较小,不是论文里用的数据集。这两个数据集在Kipf 16年经典的GCN论文用到了。节点数量分别约是2700,20000。 cora是一个机器学习论文引用数据集,提供了2708篇论文的引用关系,每篇论文的label是论文所属的...
论文全称:Large Kernel Matters —— Improve Semantic Segmentation by Global Convolutional Network 1、论文的思想 在GCN之前,普遍采用堆积小的卷积核的策略,因为这样做更加高效。然而,语义分割任务需要进行密集的逐像素预测,GCN论文指出大的卷积核对分类和定位非常的重要,所以设计了GCN (Global Convolutional Network)。
PinSAGE( PinSage: 第一个基于 GCN 的工业级推荐系统)为 GCN 落地提供了实践经验,而本文是 PinSAGE 的理论基础,同样出自斯坦福,是 GCN 非常经典和实用的论文。 论文链接:Inductive Representation Learning on Large Graphs https://papers.nips.cc/paper/6703-inductive-representation-learning-on-large-graphs.pdf 1...
论文:https://arxiv.org/abs/1703.02161 code:https://github.com/sk1712/gcn_metric_learning Metric learning with spectral graph convolutions on brain connectivity networks 2018 作者团队的联系方式。这个网址有:https://www.sciencedirect.com/science/article/pii/S1053811917310765#!
文中给出了两个case来说明GCN不能自适应的从节点属性和网络结构中抽取信息。Case1:随机的拓扑结构和与label相关的节点属性. Case2:随机的节点属性和与label相关的拓扑结构. 在这两个case下,GCN都没有表现出很好的performance,从而印证了作者的观点。 AM-GCN: THE PROPOSED MODEL ...
本论文介绍的是关系图卷积网络模型(R-GCN),并在两个已知的知识库上实现关系预测与实体分类。R-GCN是在GCN的基础上优化得到的神经网络模型,原来的GCN处理的是具有拓扑结构的数据集之间的单关系,R-GCN则可以处理知识库中的多关系数据特征。与仅解码器的基准对比,改模型在FB15K-237上有29.8%的改进。
如Geom-GCN-I-g 只用隐空间邻居,加上后缀-s. 如Geom-GCN-I-s结果见下图:可以看出:隐空间邻居对 ββ 较小的图贡献更大。然后,作者测试了不同 embedding 方法在选取邻居上对实验结果的影响。可以看出:这里并没有一个通用的较好embedding方法。需要根据数据集来设置,如何自动的找到最合适的embedding方法是一个...
【论文解读】GCN论文阅读总结 本次要总结的论文是 Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering,论文链接GCN[1],参考的代码实现GCN-code[2]。 不得不说,读懂这篇论文难度较大,因为里面有许多数学推导,要了解较多的数学知识。本人数学一般,因此在读本论文的同时参考了网上部分较...
论文阅读06——《CaEGCN: Cross-Attention Fusion based Enhanced Graph Convolutional Network for Clustering》 Ideas: Model: 交叉注意力融合模块 图自编码器 Ideas: 提出一种基于端到端的交叉注意力融合的深度聚类框架,其中交叉注意力融合模块创造性地将图卷积自编码器模块和自编码器模块多层级连起来 ...