论文标题:Self-Attention Graph Pooling 论文作者:Junhyun Lee, Inyeop Lee, Jaewoo Kang 论文来源:2019, ICML 论文地址:download 论文代码:download 1 Preamble 对图使用下采样 downsampling (pooling)。 2 Introduction 图池化三种类型: Topology based pooling; ...
论文:Self-Attention Graph Pooling作者:Junhyun Lee, Inyeop Lee, Jaewoo Kang韩国首尔高丽大学计算机科学与工程系来源:ICML 2019论文链接:Arxiv: Self-Attention Graph Poolinggithub链接:inyeoplee77/SAGPool近年来,人们提出了将深度学习应用于图数据等结构化数据的方法。研究工作集中在将CNN泛化到图数据,重新定义图...
Graph pooling 根据刚刚的mask进行选择, X′ 为mask后的特征,与 Zmask 相乘得到attention后的feature,也就是 Xout ,相应的Aout 为对应节点的邻接矩阵。 Variation 如果GNN的函数发生了改变,那么泛化的SAGPool计算公式为,这里GNN以 X 即节点特征和 A 即邻接矩阵作为输入: 例如添加邻接矩阵的平方可以得到2阶的邻居节...
文章目录 Graph U-Nets 研究动机 主要内容 Hierarchical Graph Representation Learning with Differentiable Pooling 研究动机 研究内容 Graph U-Nets 会议:ICML 2019 Authors:Hongyang Gao, Shuiwang Ji Departments: Texas A&M Univ...selfattention记录 一、Hierarchical Attention用于文本分类 分层构建加上了两个Atte...
1D-CNN...ConvGNN Input:图Graph的邻接矩阵和特征矩阵(X:由每个节点的特征向量组成) Gconv:图卷积层负责提取高级节点表示(通过聚合来自其邻居的特征信息); Pooling:图池化层负责 【论文解读 ICLR 2020 | 图上的预训练】STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS 行训练,然后在不同但相关的任务上重新...
ICML 2019 Junhyun Lee, Inyeop Lee, Jaewoo Kang Machine Learning (cs.LG); Machine Learning (stat.ML) 论文地址 本文介绍的论文是《Self-Attention Graph Pooling》。 该篇文章提出了一种新的图池化方式,该池化方式是基于自注意力机制来计算得分,同时考虑了节点特征和图的拓扑结构,能够实现端...
2). We first implement a CNN as a feature extractor (FE) that extracts primary features from the input images through several convolution and pooling layers (see Section 3.1). Then, the spatial self-attention (SSA) module detects spatial self-attention regions (see Section 3.2). Further, a ...
Name:Self-Attention Graph Pooling Links:https://arxiv.org/abs/1904.08082 Github:https://github.com/inyeoplee77/SAGPool Conference:ICML2019 0 Abstrcat 将深度学习的框架迁移到结构化的数据近期也是个热点,近期的一些学习都在将卷积+pool迁移到非结构化的数据中【模仿CNN,目前LSTM,GRU还没有人模仿】,将卷积...
SAGPool - Self-Attention Graph Pooling 图分类 图池化方法 ICML 2019,程序员大本营,技术文章内容聚合第一站。