由于其令人信服的性能和高解释性,GNN最近已成为一种广泛应用的图形分析方法。 首先,GNN是由卷积神经网络(CNN)启发的。CNN能够提取和组合具有高表示能力的特征的多尺度局部空间特征,这导致了几乎所有机器学习领域的突破和深度学习的革命。CNN的关键在于:本地连接,共享权重和多层使用。这些特点对于解决图域问题也非常重要...
CNN多用于处理图片等视觉信息,因为CNN的核心在于它的卷积核filter,每一个filter是一个小窗口,在图片上平移,通过卷积的方式来提取特征。这里的关键在于图片结构上的平移不变性:一个小窗口无论移动到图片的哪一个位置,其内部的结构都是一模一样的,因此CNN可以实现参数共享。这就是CNN的精髓所在。 RNN多用于处理序列模...
CNN的核心在于它的kernel,kernel是一个个小窗口,在图片上平移,通过卷积的方式来提取特征。这里的关键在于图片结构上的平移不变性:一个小窗口无论移动到图片的哪一个位置,其内部的结构都是一模一样的,因此CNN可以实现参数共享。这就是CNN的精髓所在。 再回忆一下RNN系列,它的对象是自然语言这样的序列信息,是一个...
图卷积神经网络,英文全称 Graph Convolutional Neural Networks,以下简写为 GCN,提出于 2017 年。GCN 在CCN与RNN的基础之上发展而来。CCN 与 RNN 是深度学习中的经典模型。CCN 的处理对象是图片,图片是一个二维的结构。CNN用于提取图片的特征,其关键在于卷积核 kernel,kernel 是一个小窗口,其大小一般是 3×3,这个...
多尺度:CNN往往包含下采样,可以减少参数,并获得更大的感受野(receptive field) GCN的背景: 自然语言处理操作对象是序列信息,一维的结构 => 使用RNN模型针对序列结构进行操作,使得序列前后的信息互相影响,很好地捕捉序列的特征 图片或者自然语言,都属于欧式空间的数据 => 有维度的概念,数据的特点是结构规则 ...
CNN的核心在于它的kernel,kernel是一个个小窗口,在图片上平移,通过卷积的方式来提取特征。这里的关键在于图片结构上的平移不变性:一个小窗口无论移动到图片的哪一个位置,其内部的结构都是一模一样的,因此CNN可以实现参数共享。这就是CNN的精髓所在。 再回忆一下RNN系列,它的对象是自然语言这样的序列信息,是一个...
在深度学习中,CNN、RNN是我们非常熟悉的面孔,他们在计算机视觉、自然语言处理等领域有着十分出色的表现。但是CNN处理的对象是二维图片,RNN处理的对象是一维序列,(欧氏空间,都是结构规则的数据)。对于社交网络、生物网络等图结构数据(结构十分不规则,没有平移不变性),CNN、RNN就无法处理了。
深度学习一直都是被几大经典模型给统治着,如CNN、RNN等等,它们无论再CV还是NLP领域都取得了优异的效果,而GCN主要是针对图结构的。社交网络、信息网络中有很多类似的结构。实际上,这样的网络结构(Non Euclidean Structure)就是图论中抽象意义上的拓扑图。
2009年,进一步的阐述了图神经网络,提出了一种监督的方法来训练GNN,但是,早期的研究都是以迭代的方式,通过RNN传播邻居消息,直到达到稳定的固定状态来学习节点的表示。这种计算消耗极大。 2012年,CNN在CV上取得了很好的成绩,于是开始将卷积应用在GNN中,2013年,Bruna等人提出了GCN,这时候的GCN是基于频域卷积的。后来又...
图卷积神经网络(GCN)是一种专为处理图结构数据设计的神经网络模型。在传统卷积神经网络(CNN)和循环神经网络(RNN)基础上,GCN旨在处理那些不规则结构的数据,例如社交网络、化学分子结构或知识图谱。它通过设计一种从图数据中提取特征的方法,实现对图数据进行节点分类、图分类、联系预测等任务,以及得到...