CrossFormer 提出此方案主要解决的问题点: 作者认为先前的基于Transformer的模型在捕获长期时间依赖性上可谓是下足了功夫,还提出各种Attention变体来降低复杂度。然而,这些方法都忽略了对不同变量的“跨维度依赖性”的捕获,也就是多变量时序中不同变量序列的相关性。作者认为对这种相关性的捕获是重要的,尤其是对于多变量...
几篇论文实现代码:《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series Forecasting》(ICLR 2023) GitHub: github.com/Thinklab-SJTU/Crossformer [fig1]《Prompt Learning with Optimal Transport for Vision-Language Models》(ICLR 2023) GitHub: github.com/CHENGY12/PLOT [...