一个新的基于transformer的模型,在长时间序列预测任务中取得了很厉害的结果:PatchTST。 PatchTST是patch time series transformer的缩写,它是由Nie, Nguyen等人在2023年3月的论文中首次提出:A Time Series is Worth 64 Words: Long-Term Forecasting with Transformers[2]。与其他基于transformer的模型相比,他们提出的...