Phased LSTM: Accelerating Recurrent Network Training for Long or Event-based Sequences 瑞士的文章 NIPS 2016 亮点1: 怎么把时间轴塞入 LSTM-cell 中. s 是相位偏移, 使得同一个时间轴可以在不同的 LSTM-cell 中错开, 相当于有"平行时间轴". 这对于下面自...
Phased LSTM: Accelerating Recurrent Network Training for Long or Event-based Sequences 永2013 Love & life10 人赞同了该文章 这是一篇对lstm进行改进的论文,主要成果是可以解决当下lstm无法处理不规则输入序列的问题. 现有的lstm模型里面有三个gate,通过对三个gate的学习,可以学习到序列上的pattern.但是现有的模...
Phased LSTM: Accelerating Recurrent Network Training for Long or Event-based Sequences (NIPS 2016) - Tensorflow 1.0 - philipperemy/tensorflow-phased-lstm