两路并行 将GCN的卷积结果和S-LSTM(summary)和I-LSTM(interaction) 1. weighted graph convolution 2. graph-gather layers 经过一层全连接再加起来得到全图的全部信息(和)是表示graph-level的信息 3. 对gt做 graph-state的S-LSTM 也就是对summary graph-gate做 graph-level的LSTM 4. 对gXt和gYt进行连接,再对...
文本分类是自然语言处理过程中一个非常重要和经典的问题,在论文和实践过程中可以说经久不衰的任务。或多或少接触NLP的同学,应该比较清楚目前文本分类的模型众多,比如Text-RNN(LSTM),Text-CNN等,但是当时很少有关于将神经网络用于文本分类的任务中。 本文提出一种将图卷积网络模型用于文本分类的模型,主要思路为基于词语...
序列通过LSTM层传递,相关矩阵由GraphConvolution层处理。它们是在Spektral中实现的,Spektral是一个很酷的库,用于基于Tensorflow的图形深度学习。它有各种可用的图形层。我们使用最基本的一个,图卷积GCN。它在可学习的权值、外部节点特征(与邻近矩阵一起提供)和我们的相关矩阵之间进行一系列卷积运算。目前Spektral不支持...
LSTM aggregator:和mean aggregator相比,LSTM有更大的表达能力。但是LSTM不符合symmetric的性质,输入是有顺序的。所以把相邻节点的向量集合随机打乱顺序,然后作为LSTM的输入。 Pooling aggregator:尝试了pooling做aggregator, 所有相邻节点的向量共享权重,先经过一个非线性全连接层,然后做max-pooling. ...
文本分类是自然语言处理比较常见的问题,常见的文本分类主要基于传统的cnn、lstm以及最近几年比较热门的transform、bert等方法,传统分类的模型主要处理排列整齐的矩阵特征,也就是很多论文中提到的Euclidean Structure,但是我们科学研究或者工业界的实际应用场景中,往往会遇到非Euclidean Structure的数据,如社交网络、信息网络,传...
虽然ICCV2019已经公布了接收ID名单,但是具体的论文都还没放出来,为了让大家更快得看论文,我们汇总了目前已经公布的大部分ICCV2019 论文,并组织了ICCV2019论文汇总开源项目(https://github.com/extreme-assistant/iccv2019),目前已经收集到70篇论文,其中10篇Oral,13篇开源,见下方list。建议Oral的文章一定要去读一读。
GCN_LSTM.py GCN_LSTM_BI.py GCN_LSTM_BI_Attention.py GCN_LSTM_BI_Multi_Attention.py GCN_LSTM_BI_Multi_Attention_Weather.py GCN_LSTM_BI_Multi_Attention_Weather_Separate.py GCN_LSTM_BI_TeacherForcing.py GCN_LSTM_Peepholes.py GCN_LSTM_TeacherForcing.py GCN_Transformer.py SVR_NN.py __init...
deep-learningtensorflowtransformerscnntransformerlstmgrurnndensenetresneteeg-dataone-shot-learningattention-mechanismmotor-imagery-classificationresidual-learningfully-convolutional-networksgcneeg-classificationeeg-signals-processinggraph-convolutional-neural-networks ...
We propose a deep-learning architecture combined residual network (ResNet), graph convolutional network (GCN) and long short-term memory (LSTM) (called “ResLSTM”) to forecast short-term passenger flow in urban rail transit on a network scale. First, improved methodologies of ResNet, GCN, an...
Bidirectional LSTM (Bi-LSTM) Layer: The primary distinction ofGCN_LSTM_BIlies in its use of a Bi-LSTM layer, which processes temporal sequences from both directions. This dual processing path allows the model to learn from past and future contexts simultaneously, enhancing its predictive capabilit...