当Transformer模型应用于时序数据预测时,输入序列可能会存在时间信息的缺失;且时间序列滑动窗口数据之间的映射和机器翻译任务不同,带掩码的多头注意力层(Masked Multi-Head Attention)是用于确保在生成文本序列时,模型只能看到当前位置之前的内容,以确保生成的文本是合理连贯的。
第五个文件:GRU.py 第六个文件:LSTM表格,转载的是LSTM.py预测的测试集结果和测试集真实值 第七个文件:LSTM.py 第八个文件:LSTM_Transform表格,转载的是LSTM_Transform预测的测试集结果和测试集真实值 第九个文件:LSTM_Transform 第十个文件:plt.py是读取四个不同程序对测试集预测的结果,并与测试集真实值进行...