GGNN是一个类似于斯卡塞利等人引入的GNN的DGN,但具有固定的迭代次数。DyGrAE由四个部分组成:学习空间动态的GGNN;传播时间信息的RNN;将图演化投影到固定大小表示的编码器;和一个解码器来重建动态图的结构。 作者引入了一种时间注意机制,这迫使模型关注具有显著影响的时间步长。该机制导致解码器的重新表述为 Dyngraph2v...
Graph Convolution Module 图卷积模块的目的是融合节点和邻居的特征,以获得新的节点表示 为了对短期模式和长期模式的交互进行建模,我们采用两个图卷积层分别捕获静态图和动态图上的节点信息, Joint Learning with A Hybrid Loss 我们通过最小化结合预测和图正则化损失的混合损失来共同学习图和GNN参数。 Experiments 实验...
本文将总结深度学习时代较有影响力的动态图神经网络和时序知识图谱的经典研究工作。Discrete Temporal Dynamic GraphDynamicTriad (AAAI'18)Dynamic Network Embedding by Modeling Triadic Closure Process依…
2.1.1图神经网络(GNN)简介 图神经网络(GraphNeuralNetworks,GNN)是一种处理图结构数据的神经网络模型。在推荐系统中,用户和物品之间的交互可以被建模为一个图,其中用户和物品是图的节点,而交互行为(如点击、购买)则作为边连接这些节点。GNN能够捕捉到图中节点之间的复杂关系,从而在推荐系统中提供更准确的个性化推荐。
每个实体的embedding以一种基于GNN的inductive的方式生成。(实体包括事件,物品,用户行为等) 整个方法主要包括以下几个步骤: 1)为每个事件构建一个动态异构图。 2)使用文中提出的异构图embedding算法来生成事件的embedding。 3)基于实体的embedding进行实时预测。
In prior graph network-based techniques, a single graph neural network (GNN) had often been used. The advantages of various graph filters or graph neural networks have not been fully exploited. The problem of oversmoothing still exists with traditional GNNs. To address issues like the one ...
3 TEMPORAL GRAPH NETWORKS 根据(Representation learning for dynamic graphs: A survey)中的观点,动态图的神经模型可以被视为编码器-解码器对,其中编码器是一个函数,从动态图映射到节点嵌入,解码器将一个或多个节点嵌入作为输入,并进行特定于任务的预测,如节点分类或链接预测。本文的主要贡献是一种新颖的时间图网络...
这里LL 是GNN 的层数. 训练策略 在tt 时刻, 我们有了新的 graph snapshot GtGt, 我们不会回顾 G1,G2,…,Gt−1G1,G2,…,Gt−1, 而仅仅保留: {H(l)t−1}Ll=1{Ht−1(l)}l=1L 用于后续的训练, 于是乎, 每一阶段的训练都是非常高效的. 此外, 作者认为可以把每个 snapshot 看成是一个...
3 TEMPORAL GRAPH NETWORKS 根据(Representation learning for dynamic graphs: A survey)中的观点,动态图的神经模型可以被视为编码器-解码器对,其中编码器是一个函数,从动态图映射到节点嵌入,解码器将一个或多个节点嵌入作为输入,并进行特定于任务的预测,如节点分类或链接预测。本文的主要贡献是一种新颖的时间图网络...
具体地,作者使用了概率隐变量模型中的变分自编码器(Variational autoencoder)框架,使用GNN做为编码器在全连接图上进行点-边-点的信息传播,通过观察到的节点轨迹特征编码pairwise的隐含变量,再通过隐含变量重采样得到隐含表示,得到整个系统的边隐含表示;解码时通过节点的历史轨迹特征与整个系统的边隐含表示得到节点在下一...