当Transformer模型应用于时序数据预测时,输入序列可能会存在时间信息的缺失;且时间序列滑动窗口数据之间的映射和机器翻译任务不同,带掩码的多头注意力层(Masked Multi-Head Attention)是用于确保在生成文本序列时,模型只能看到当前位置之前的内容,以确保生成的文本是合理连贯的。
第一个文件:CNN_GRU表格,装载的是CNN_GRU.py预测的测试集结果 第二个文件:CNN_GRU.py 第三个文件是数据,data15表格装载的是美国交通流量数据 第四个文件:GRU表格,转载的是GRU.py预测的测试集结果和测试集真实值 第五个文件:GRU.py 第六个文件:LSTM表格,转载的是LSTM.py预测的测试集结果和测试集真实值 第...