第一个时刻,LSTM(严谨来说单个时刻LSTM的物理结构应该叫LSTM CELL), 输入为(1,1,features),然后得到t1时刻的 hidden state和cell state; 第二个时刻,LSTM输入为(1,2,features)以及t1时刻的hidden state和cell state 。。。 依次类推。 由于temporal gnn,每个时刻的输入是一个graph,使用上述的这种更加底层的计算...
在这篇文章中将使用常见的三个GNN模型进行预测,即GCN、GraphSAGE和GAT。 图卷积网络(Graph Convolutional Network,GCN)是最早提出的图神经网络之一,GCN通过在图的邻域内进行信息聚合来学习节点的低维表示。具体来说,GCN利用了拉普拉斯矩阵的特征值分解,通过图傅里叶变换将卷积操作转换为频域上的滤波操作。GCN的核心公式...
这种操作与GNN类似,不过区别是GNN只对seq_len维度进行了变换。因此,本质上GNN也是一种卷积操作。 在得到x=(batch_size=256, input_size=13, hidden_size=128)后,为了满足LSTM(batch_size, seq_len, input_size)的输入要求,我们只需要将x的后两个维度进行交换,将hidden_size当做seq_len,这是因为GNN的作用就...