Self-Attention Graph Pooling(SAGPool)是利用自注意力机制来区分应该删除的节点和应该保留的节点,基于图卷积计算注意力分数的自注意力机制,考虑了节点特征和图的拓扑结构。 SAGPool方法可以使用相对较少的参数以端到端方式学习层次表示,具有前几种方法的优点:分层池化,同时考虑节点特征和图的拓扑结构,合理的复杂度,以及...
由此我们提出了一种 SAGPool模型,是一种 Self-Attention Graph Pooling method,我们的方法可以用一种End2End的方式学习结构层次信息,Self-attention结构可以区分哪些节点应该丢弃,哪些应该保留。因为Self-attention结构使用了Graph convolution来计算attention分数,Node features以及Graph topology都被考虑进去,简而言之,SAGPool...
论文地址 本文介绍的论文是《Self-Attention Graph Pooling》。 该篇文章提出了一种新的图池化方式,该池化方式是基于自注意力机制来计算得分,同时考虑了节点特征和图的拓扑结构,能够实现端到端方式学习图的层次表示。 🍁一、背景 近几年图神经网络已被广泛应用于各个领域,并且表现出了很好的性能,...
3.1 Self-Attention Graph Pooling Self-attention mask 本文使用图卷积来获得自注意分数: Z = σ ( ˜D − 1 2 ˜A ˜D − 1 2 X Θatt ) ( 3 ) 其中: 自注意得分Z∈RN×1; 邻接矩阵˜A∈RN×N; 注意力参数矩阵Θatt∈RF×1; ...
而为了继续提高Graph pooling,我们通过SAGPool使用拓扑结构和特征来更简单的学习层级表示。 二.模型 SAGPool的核心在于使用GNN计算self-attention,SAGPool层如下图: An illustration of the SAGPool layer. Self-attention mask 具体使用图卷积计算self-attention值,以Semi-Supervised Classification with Graph Convolutional ...
在这篇论文,我们提出了一种基于self-attention的graph pool方法,我们的pool方法包括node feature/graph topology两个特征,为了公平,我们使用一样的训练过程以及模型结构,实验结果证明我们的方法在Graph classification中表现的好。 1 Introduction 深度学习的方法在数据的识别和增强等方面有突飞猛进。特别,CNNs成功地挖掘了...
Self-Attention Graph Pooling is a method that moves the framework of deep learning to structured data, addressing the challenge of downsampling in graphs. The method introduces a self-attention mechanism to pool nodes in graphs, considering both node features and graph topology. This ...
ICML2019 Self-Attention Graph Pooling & Ji的方法[link]解决了复杂度的问题,但是没有考虑图的拓扑结构。 由此我们提出了一种SAGPool模型,是一种Self-AttentionGraphPoolingmethod,我们的方法可以用一种End2End的方式学习结构层次信息,Self-attention结构可以区分哪些节点应该丢弃,哪些应该保留。因为Self-attention结构使用...
SAGPool - Self-Attention Graph Pooling 图分类 图池化方法 ICML 2019,程序员大本营,技术文章内容聚合第一站。
Self-attention using graph convolution allows our pooling method to consider both node features and graph topology. To ensure a fair comparison, the same training procedures and model architectures were used for the existing pooling methods and our method. The experimental results demonstrate that our...