🤗 Transformers 库带有一个普通的概率时间序列 Transformer 模型,简称为Time Series Transformer。在这篇文章后面的内容中,我们将展示如何在自定义数据集上训练此类模型。 设置环境 首先,让我们安装必要的库: 🤗 Transformers、🤗 Datasets、🤗 Evaluate、🤗 Accelerate 和GluonTS。 正如我们将展示的那样,GluonTS ...
在《使用 🤗 Transformers 进行概率时间序列预测》的第一部分里,我们为大家介绍了传统时间序列预测和基于 Transformers 的方法,也一步步准备好了训练所需的数据集并定义了环境、模型、转换和InstanceSplitter。本篇内容将包含从数据加载器,到前向传播、训练、推理和展望未来发展等精彩内容。 创建PyTorch 数据加载器 有...
使用🤗 Transformers进行时间序列预测可以方便地利用这些预训练模型进行快速开发和实验。下面是一个使用🤗 Transformers进行概率时间序列预测的示例: 导入必要的库和模块: import numpy as np import pandas as pd from transformers import AutoRegressiveDecoder, AutoTokenizer from sklearn.model_selection import train_...
🤗 Transformers在时间序列预测中的实际应用非常广泛。例如,在金融领域,可以使用它预测股票价格或汇率;在气象领域,可以预测降雨量或温度;在健康监测领域,可以预测患者的生命体征等。通过结合具体场景和数据特点,🤗 Transformers可以帮助用户实现更精确的概率时间序列预测。 七、总结 🤗 Transformers为概率时间序列预测提供...
在《使用 Transformers 进行概率时间序列预测》的第一部分里,我们为大家介绍了传统时间序列预测和基于 Transformers 的方法,也一步步准备好了训练所需的数据集并定义了环境、模型、转换和InstanceSplitter。本篇内容将包含从数据加载器,到前向传播、训练、推理和展望未来发展等精彩内容。
在这篇博文中,我们将利用传统 vanilla Transformer(参考 Vaswani 等 2017 年发表的论文)进行单变量概率预测 (univariate probabilistic forecasting) 任务 (即预测每个时间序列的一维分布) 。 由于 Encoder-Decoder Transformer 很好地封装了几个归纳偏差,所以它成为了我们预测的自然选择。