我们将每一个顶点得信号看作是一个样本得输入,那么GCN可以实现这样一种功能:当空间信息分布在在非欧空间时,即没有规整得相邻关系时,各个输入样本之间的关系及其关系强弱可以被考虑进网络。而通常情况下CNN输入的各个样本之间的关联性信息并没有被输入网络中去。在高光谱中,虽然3D-CNN和2D-CNN已经加入了空间信息,但...
在GCN里 f(xi,xj)定义为i和j两个node之间是否有边,1表示有边相连,0表示没有边。 CNN CNN可以用如下公式(2)表征(为了方便讨论,假设为一维时序数据): yi=∑j=0L−1Wjxi+j−L2 其中L为卷积核长度,Wj∈Rfout×fin,yi∈Rfout×1。 定义gj(xi+j−L2)=Wjxi+j−L2,则由公式(2)可得到公式(3...
CNN与GCN的关系: CNN(Convolutional Neural Networks)是卷积神经网络,本质上是利用共享参数的过滤器,通过计算中心像素点以及相邻像素点的加权和构成feature map,实现空间特征的提取。其中的加权系数就是卷积核的权重系数,它是随机化初值,然后根据误差函数通过反向传播梯度下降进行迭代优化。 在计算机视觉中,CNN处理图像或视...
self-attention、non local networks与GCN在公式(1)中可以统一,公式为:其中,[公式] 为node的特征;[公式] 度量两个node之间的相似度;[公式] 归一化;[公式] 为输入特征通道数,[公式] 为输出特征通道数。定义[公式] ,则公式(1)可变为:对比公式(1)和公式(2),其中(1)通过[公式]...
那么为什么要研究GCN?原因有三: (1)CNN无法处理Non Euclidean Structure的数据,学术上的表达是传统的离散卷积(如问题1中所述)在Non Euclidean Structure的数据上无法保持平移不变性。通俗理解就是在拓扑图中每个顶点的相邻顶点数目都可能不同,那么当然无法用一个同样尺寸的卷积核来进行卷积运算。
GCN VS 传统 CNN (Convolution 网络) 传统Convolution 网络适用于常见的文本,图像这种规则的数据结构。然而现实生活场景中信息之间的结构大多数是不规则的,如用户购买商品这样一种复杂的结构传统的网络不再适用。而图像上的卷积操作,与图结构上的卷积操作,最大的一个区别就在于: ...
CNN与GCN的最大区别是没有显式地表达出邻接矩阵,如果我们将图像中的每个像素视作一个节点,那么以 大小的卷积核为例,可以将中心节点附近 的栅格内的像素等价为自己的邻居。这种将像素等价于节点,像素之间空间坐标的连线作为彼此之间的边,如此图像数据就成了一种结构非常规则的图数据。
论文原话:CNN是GCN的灵感来源,它不采用耦合聚合。如上图所示,不同的通道具有独立的空间聚集核,以不同的颜色显示。我们称这种机制为解耦聚合。解耦聚集机制可以大大提高空间聚集能力,这对于CNN的成功至关重要。 该论文认为GCN只使用相同的邻接矩阵不利于模型学习,因此以CNN的解耦合为灵感修改了GCN的邻接矩阵。
cnn与gcn的区别 1.graph embedding(GE) 1.1.图中学习的分类 1.2.相似度度量方法 2.Graph neural network 2.1.Graph convolutional network(GCN) 2.1.1.引子:热传播模型 2.1.2.热传播在graph上的求解:傅里叶变换 2.2.分析下graph neural中哪些东西可以做?