连接层面的特征工程 根据已有连接预测新的连接。 如何设计一个结点对的特征? 直接提取link的特征,把link变成d维向量,而不是把两个结点本身的d维向量拼在一起,损失了link 本身的结构信息。 连接预测的两种构想 1,随机删掉一些连接 然后再预测他们 2,根据一个时间段内由边决定的图 预测 在另一时间段在图中新出...
CS224W-图神经网络 笔记6.1:Message Passing and Node Classification - 节点分类方法简介 CS224W-图神经网络 笔记6.1:Message Passing and Node Classification - 节点分类方法简介本文总结之日CS224W Winter 2021只更新到了第四… 阅读全文 赞同 6 ...
【CS224W学习笔记 day08】 GNN的表示性有多强? GNN是基于邻居聚合的神经网络,它输入的每个节点特征,最后通过不断的信息传递和聚合计算,最后可以训练出来一个可以计算每个节点embedding的模型,但是它的表示性有多强呢,比如在传统机器学习中,如果… 阅读全文 ...
图的意义 作为一种解决问题的通用语言,将问题抽象成图,用同一种机器学习的算法可以求解多个问题。 但为问题选择合适的表示是很难的问题——选择合适的点、边和问题域 2.design choice 有向图和无向图directed/undirected graphs 节点度node degrees 无向图的每个节点都被计算两次,平均节点度*2 自循环的无向图,...
2.betweenness centrality介数中心性:节点连接的最短路径越多就越重要,类似于交通要道。 如A到B、D、E的最短路径都要经过节点C,所以节点C的节点中心度为3。规定边缘节点A、B、E的节点中心度为0。 3.closeness centrality紧密度中心性:节点越居中,与其他节点的路径越短越重要 ...
幂迭代法 不断迭代直到误差(L1范数 差的绝对值 或 L2范数 平方和的平方根)需要约50次 实例 converge 收敛 1 死胡同 没有输出重要性 因此重要性在死胡同里泄露了 2 蜘蛛陷阱 所有输出在同一组里,陷阱吸收了所有重要性 见下图 b自循环 在一次次迭代中 吸收了所有重要性 ...
在Lecture 6将介绍deep encoders(已完成对应章节的笔记,见cs224w(图机器学习)2021冬季课程学习笔记7 Graph Neural Networks 1: GNN Model) Decoder: based on node similarity 目标:对于相似点对 (u,v),最大化其embedding点积 节点相似的不同定义 有边 ...
传统机器学习难以应用在图结构上。具体原因在Lecture 中已经讲过,我也撰写过相应笔记,不再赘述。 2. Basics of Deep Learning 随机梯度下降stochastic gradient descent (SGD) 每一次梯度下降都需要计算所有数据集上的梯度,耗时太久,因此我们使用SGD的方法,将数据分成多个minibatch,每次用一个minibatch来计算梯度。
CS224W笔记3.1:网络的结构总结如下:子图:定义:网络中的一组节点及其相互连接的边,构成局部结构的单元。重要性:通过挖掘子图,可以揭示网络的局部性质,如统计不同网络中特定子图的出现频率,有助于识别网络的特性。Motifs:定义:具有小规模、诱导子图特征、高频出现且在随机图中显著的模式。小规模...
CS224W笔记3.1:网络的结构的要点如下: 子图的概念: 子图是网络中一部分节点及其连接边的集合。 通过统计子图的出现频次,可以得到不同网络的重要性概览,并发现不同网络间可能具有相似的子图分布。 Motifs的定义: Motifs是一类具有特定结构特征的子图。 Motifs的出现频率远高于平均值,在真实网络中的重要性高于随机网络。