1.engienvector centrality特征向量中心性:节点的邻居数量的总和就是节点的重要性的程度,可以用特征值和特征向量来表示,最大特征值正定且唯一,前置向量leading eigenvector就是节点中心度的向量 2.betweenness centrality介数中心性:节点连接的最短路径越多就越重要,类似于交通要道。 如A到B、D、E的最短路径都要经过...
cs224w是斯坦福关于图神经网络的课程,记录下学习笔记(2022)。 一、介绍 1. 图数据的特点 图数据不像图像和文本一样具有规则的欧几里得空间结构(文本序列或者图像网格),因此传统的RNN、CNN无法直接应用到图数据上。 2. 图学习任务 节点分类:路口拥堵预测 边分类:比如知识图谱实体关系补全、推荐系统(商品-用户关系预测...
Traditional ML Pipeline 传统机器学习流程 在传统的机器学习流程中,我们为顶点、边和图设计手工特征(hand-designed features)从而为训练数据得到特征。 基于这些特征,我们可以训练机器学习模型(如随机森林、支持向量机、神经网络等)。这样,要应用这个模型,只需对于给定的新顶点(边、图),采用与之前一致的方法提取其特征,...
斯坦福大学CS224W图机器学习公开课-同济子豪兄中文精讲 官方课程主页:https://web.stanford.edu/class/cs224w 同济子豪兄中文精讲课程主页:https://github.com/TommyZihao/zihao_course/tree/main/CS224W 关键词:图计算、图机器学习、图数据挖掘、图神经网络、图卷积神经网络、图深度学习、图数据库、搜索引擎、知识...
CS224W-图神经网络 笔记6.1:Message Passing and Node Classification - 节点分类方法简介 CS224W-图神经网络 笔记6.1:Message Passing and Node Classification - 节点分类方法简介本文总结之日CS224W Winter 2021只更新到了第四… 阅读全文 赞同 6 ...
【CS224W学习笔记 day08】 GNN的表示性有多强? GNN是基于邻居聚合的神经网络,它输入的每个节点特征,最后通过不断的信息传递和聚合计算,最后可以训练出来一个可以计算每个节点embedding的模型,但是它的表示性有多强呢,比如在传统机器学习中,如果… 阅读全文 ...
图与机器学习:斯坦福CS224W简介 在机器学习领域,图数据是一种常见的数据形式,例如社交网络、推荐系统和生物网络都可以表示为图。为了处理这种类型的数据,我们需要一些特殊的工具和技术。斯坦福大学的CS224W课程专门探讨了图数据与机器学习的结合,帮助学生理解和应用这一领域的知识。
Application of Graph ML 图机器学习任务分为四类 节点级别 node level 边级别 edge level 社区 / 子图级别 community(subgraph) level 图级别,包括预测任务graph-level prediction和 图生成任务graph ge
1.3 图的基本表示 Objects:nodes(节点)、vertices(顶点)表示为NN Interactions(关系):links、edges表示为EE System:network、graph表示为G(N,E)G(N,E) 设计本体图 如何设计本体图,取决于将来想解决什么样的问题 有些时候,本体图是唯一的、无歧义的
遍历所有节点,并遍历从uu节点出发的随机游走序列的所有邻域节点,计算节点uu和节点vv在该随机游走序列中共现。 2.3 计算优化 负采样: 其中 (非均匀分布采样), 梯度下降: 全局梯度下降(Gradient Descent):求所有节点uu总梯度 ,并迭代更新 随机梯度下降(Stochastic Gradient Descent):每次随机游走优化一次 ...