GCN和GAT的关键区别在于,如何聚合来自临近邻居的信息(指一条,文章里说的是one-hop)。 对于GCN而言, 一个图的卷积运算产生邻节点特征的归一化和。 其中N(i)为其一跳邻居的集合(若要在集合中包含vi,只需向每个节点添加一个自循环,意思就是说如果得到的新节点如果要有老节点本身,那么要有自环) 是一个基于图结...
与传统的卷积神经网络(CNN)模型不同,ViT不需要使用卷积操作来提取特征,而是使用自注意力机制来学习图像中的关系。与Transformer模型相比,ViT模型的主要区别在于输入的数据类型。Transformer模型的输入是序列数据,而ViT模型的输入是图像块。这意味着ViT模型需要使用一些额外的技巧来处理图像数据,例如将图像块重新排列为序列输...