PaddleX 提供了丰富的模型产线,模型产线由一个或多个模型组合实现,每个模型产线都能够解决特定的场景任务问题。PaddleX 所提供的模型产线均支持快速体验,如果效果不及预期,也同样支持使用私有数据微调模型,并且 PaddleX 提供了 Python API,方便将产线集成到个人项目中。在使用之前,您首先需要安装 PaddleX, 安装方式请参考 PaddleX 安装。此处以一个用电量长期预测的任务为例子,介绍时序预测模型产线工具的使用流程。
首先,需要根据您的任务场景,选择对应的 PaddleX 产线,本任务目标是基于历史数据对未来一段时间电力消耗量进行预测。了解到这个任务属于时序预测任务,对应 PaddleX 的时序预测产线。如果无法确定任务和产线的对应关系,您可以在 PaddleX 支持的模型产线列表中了解相关产线的能力介绍。
PaddleX 提供了两种体验的方式,一种是可以直接通过 PaddleX 在本地体验,另外一种是可以在 AI Studio 星河社区 上体验。
本地体验方式:
python main.py -c paddlex/configs/ts_forecast/DLinear.yaml \
-o Global.mode=predict \
-o Predict.model_dir=https://paddle-model-ecology.bj.bcebos.com/paddlex/official_inference_model/DLinear_infer.tar \
-o Predict.input_path=https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/doc_images/practical_tutorial/timeseries_forecast/test.csv
星河社区体验方式:可以进入 官方时序预测应用 体验时序预测任务的能力。
注:由于时序数据和场景紧密相关,时序任务的在线体验官方内置模型仅是在一个特定场景下的模型方案,并非通用方案,不适用其他场景,因此体验方式不支持使用任意的文件来体验官方模型方案效果。但是,在完成自己场景数据下的模型训练之后,可以选择自己训练的模型方案,并使用对应场景的数据进行在线体验。
PaddleX 提供了5个端到端的时序预测模型,具体可参考 模型列表,其中模型的benchmark如下:
| 模型列表 | mse | mae | 模型存储大小 |
|---|---|---|---|
| DLinear | 0.386 | 0.445 | 80k |
| Nonstationary | 0.385 | 0.463 | 61M |
| TiDE | 0.376 | 0.441 | 35M |
| PatchTST | 0.291 | 0.380 | 2.2M |
| TimesNet | 0.284 | 0.386 | 5.2M |
注:以上精度指标测量自 ECL 数据集,输入输出长度均为 96。
你可以依据自己的实际使用场景,判断并选择一个合适的模型做训练,训练完成后可在产线内评估合适的模型权重,并最终用于实际使用场景中。
为了演示时序预测任务整个流程,我们将使用电力 Electricity 数据集进行模型训练及验证。该数据集采集了 2012 - 2014 年的某节点耗电量,每间距 1 小时采集一次数据,每个数据点由当前时间点和对应的耗电量组成。该数据集通常用于测试和验证时间序列预测模型的性能。
本教程中基于该数据集预测未来 96 小时的耗电量。我们已经将该数据集转化为标准数据格式,可通过以下命令获取示例数据集。关于数据格式介绍,您可以参考 PaddleX 数据格式介绍。
数据集获取命令:
cd /path/to/paddlex
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/doc_images/practical_tutorial/timeseries_forecast/electricity.tar -P ./dataset
tar -xf ./dataset/electricity.tar -C ./dataset/
数据注意事项
为了训练出高精度的模型,贴近实际场景的真实数据尤为关键,因此通常需要一批真实数据加入训练集。
标注时序预测任务数据时,基于收集的真实数据,将所有数据按照时间的顺序排列即可。训练时将数据自动分为多个时间片段,历史的时间序列数据和未来的序列分别表示训练模型输入数据和其对应的预测目标,构成了一组训练样本。
缺失值处理:为了保证数据的质量和完整性,可以基于专家经验或统计方法进行缺失值填充。
非重复性:保证数据是安装时间顺序按行收集的,同一个时间点不能重复出现。
在对数据集校验时,只需一行命令:
python main.py -c paddlex/configs/ts_forecast/DLinear.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/electricity
执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息。命令运行成功后会在 log 中打印出 Check dataset passed ! 信息,同时相关产出会保存在当前目录的 ./output/check_dataset 目录下,产出目录中包括示例数据行。校验结果文件保存在 ./output/check_dataset_result.json,校验结果文件具体内容为
{
"done_flag": true,
"check_pass": true,
"attributes": {
"train_samples": 22880,
"train_table": [
[
"date",
"OT"
],
[
"2012-01-01 00:00:00",
2162.0
],
[
"2012-01-01 01:00:00",
2835.0
],
[
"2012-01-01 02:00:00",
2764.0
],
[
"2012-01-01 03:00:00",
2735.0
],
[
"2012-01-01 04:00:00",
2721.0
],
[
"2012-01-01 05:00:00",
2742.0
],
[
"2012-01-01 06:00:00",
2716.0
],
[
"2012-01-01 07:00:00",
2716.0
],
[
"2012-01-01 08:00:00",
2680.0
],
[
"2012-01-01 09:00:00",
2581.0
]
],
"val_samples": 3424,
"val_table": [
[
"date",
"OT"
],
[
"2014-08-11 08:00:00",
3528.0
],
[
"2014-08-11 09:00:00",
3800.0
],
[
"2014-08-11 10:00:00",
3889.0
],
[
"2014-08-11 11:00:00",
4340.0
],
[
"2014-08-11 12:00:00",
4321.0
],
[
"2014-08-11 13:00:00",
4293.0
],
[
"2014-08-11 14:00:00",
4393.0
],
[
"2014-08-11 15:00:00",
4384.0
],
[
"2014-08-11 16:00:00",
4495.0
],
[
"2014-08-11 17:00:00",
4374.0
]
]
},
"analysis": {
"histogram": ""
},
"dataset_path": "./dataset/electricity",
"show_type": "csv",
"dataset_type": "TSDataset"
}
上述校验结果中,check_pass 为 True 表示数据集格式符合要求,其他部分指标的说明如下:
注:只有通过数据校验的数据才可以训练和评估。
如需对数据集格式进行转换或是重新划分数据集,可通过修改配置文件或是追加超参数的方式进行设置。
数据集校验相关的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:
CheckDataset:
convert:
enable: 是否进行数据集格式转换,为 True 时进行数据集格式转换,默认为 False;src_dataset_type: 如果进行数据集格式转换,则需设置源数据集格式,数据可选源格式为 xlsx 和 xls;split:
enable: 是否进行重新划分数据集,为 True 时进行数据集格式转换,默认为 False;train_percent: 如果重新划分数据集,则需要设置训练集的百分比,类型为 0-100 之间的任意整数,需要保证和 val_percent 值加和为 100;val_percent: 如果重新划分数据集,则需要设置验证集的百分比,类型为 0-100 之间的任意整数,需要保证和 train_percent 值加和为 100;数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 xxx.bak,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20。
在训练之前,请确保您已经对数据集进行了校验。完成 PaddleX 模型的训练,只需如下一条命令:
python main.py -c paddlex/configs/ts_forecast/DLinear.yaml \
-o Global.mode=train \
-o Global.dataset_dir=./dataset/electricity \
-o Train.epochs_iters=5 \
-o Train.batch_size=16 \
-o Train.learning_rate=0.0001 \
-o Train.time_col=date \
-o Train.target_cols=OT \
-o Train.freq=1h \
-o Train.input_len=96 \
-o Train.predict_len=96
在 PaddleX 中模型训练支持:修改训练超参数、单机单卡训练(时序模型仅支持单卡训练)等功能,只需修改配置文件或追加命令行参数。
PaddleX 中每个模型都提供了模型开发的配置文件,用于设置相关参数。模型训练相关的参数可以通过修改配置文件中 Train 下的字段进行设置,配置文件中部分参数的示例说明如下:
Global:
mode:模式,支持数据校验(check_dataset)、模型训练(train)、模型评估(evaluate)、单例测试(predict);device:训练设备,可选cpu、gpu、xpu、npu、mlu;可在该路径下模型支持列表的文档中,查看不同设备上支持的模型;Train:训练超参数设置;
epochs_iters:训练轮次数设置;learning_rate:训练学习率设置;batch_size:训练单卡批大小设置;time_col: 时间列,须结合自己的数据设置时间序列数据集的时间列的列名称;target_cols:目标变量列,须结合自己的数据设置时间序列数据集的目标变量的列名称,可以为多个,多个之间用','分隔;freq:频率,须结合自己的数据设置时间频率,如:1min、5min、1h;input_len: 输入给模型的历史时间序列长度;输入长度建议结合实际场景及预测长度综合考虑,一般来说设置的越大,能够参考的历史信息越多,模型精度通常越高。predict_len:希望模型预测未来序列的长度;预测长度建议结合实际场景综合考虑,一般来说设置的越大,希望预测的未来序列越长,模型精度通常越低。patience:early stop机制参数,指在停止训练之前,容忍模型在验证集上的性能多少次连续没有改进;耐心值越大,一般训练时间越长。更多超参数介绍,请参考 PaddleX 超参数介绍。
注:
-o Global.mode=train;指定前 1 卡 gpu 训练:-o Global.device=gpu:0;设置训练轮次数为 10:-o Train.epochs_iters=10。output,如需指定保存路径,可通过配置文件中 -o Global.output 字段训练产出解释:
在完成模型训练后,所有产出保存在指定的输出目录(默认为./output/)下,通常有以下产出:
在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,只需一行命令:
python main.py -c paddlex/configs/ts_forecast/DLinear.yaml \
-o Global.mode=evaluate \
-o Global.dataset_dir=./dataset/electricity \
与模型训练类似,模型评估支持修改配置文件或追加命令行参数的方式设置。
注: 在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=./output/best_model/model.pdparams。
在学习了模型训练和评估后,我们可以通过调整超参数来提升模型的精度。通过合理调整训练轮数,您可以控制模型的训练深度,避免过拟合或欠拟合;而学习率的设置则关乎模型收敛的速度和稳定性。因此,在优化模型性能时,务必审慎考虑这两个参数的取值,并根据实际情况进行灵活调整,以获得最佳的训练效果。
基于控制变量的方法,我们可以采用在初始阶段基于固定的较小轮次,多次调整学习率,从而找到较优学习率;之后再次增大训练轮次,进一步提升效果。对于时序预测任务,输入长度决定了模型在做出预测时将考虑历史数据的多少,也尤为的重要。下面我们详细介绍时序预测的调参方法:
推荐在调试参数时遵循控制变量法:
学习率探寻实验结果:
| 实验id | 轮次 | 学习率 | batch_size | 输入长度 | 预测长度 | 训练环境 | 验证集 mse |
|---|---|---|---|---|---|---|---|
| 实验一 | 5 | 0.0001 | 16 | 96 | 96 | 1卡 | 0.314 |
| 实验二 | 5 | 0.001 | 16 | 96 | 96 | 1卡 | 0.302 |
| 实验三 | 5 | 0.01 | 16 | 96 | 96 | 1卡 | 0.320 |
增大训练轮次实验结果:
| 实验id | 轮次 | 学习率 | batch_size | 输入长度 | 预测长度 | 训练环境 | 验证集 mse |
|---|---|---|---|---|---|---|---|
| 实验二 | 5 | 0.001 | 16 | 96 | 96 | 1卡 | 0.302 |
| 实验四 | 30 | 0.001 | 16 | 96 | 96 | 1卡 | 0.301 |
增大输入长度实验结果:
| 实验id | 轮次 | 学习率 | batch_size | 输入长度 | 预测长度 | 训练环境 | 验证集 mse |
|---|---|---|---|---|---|---|---|
| 实验四 | 30 | 0.001 | 16 | 96 | 96 | 1卡 | 0.301 |
| 实验五 | 30 | 0.001 | 16 | 144 | 96 | 1卡 | 0.188 |
将产线中的模型替换为微调后的模型进行测试,使用本案例中的电力测试数据,进行预测:
python main.py -c paddlex/configs/ts_forecast/DLinear.yaml \
-o Global.mode=predict \
-o Predict.model_dir="output/best_model/model.pdparams" \
-o Predict.input_path=https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/doc_images/practical_tutorial/timeseries_forecast/test.csv
通过上述可在./output下生成预测结果,其中test.csv的预测结果保存在result.csv中。
PaddleX 针对时序分析模型提供了 本地推理部署/服务化部署的方式进行模型部署。目前时序部署方案为动态图部署,提供本地推理和服务化部署两种部署方式,能够满足更多场景的需求。本地部署和服务化部署两种部署方式的特点如下:
* 本地部署:运行脚本执行推理,或在程序中调用 Python 的推理 API。旨在实现测试样本的高效输入与模型预测结果的快速获取,特别适用于大规模批量刷库的场景,显著提升数据处理效率。
* 服务化部署:采用 C/S 架构,以服务形式提供推理能力,客户端可以通过网络请求访问服务,以获取推理结果。
PaddleX 本地部署和服务化部署流程如下:
best_accuracy.pdparams.tar 放在离线部署包 model/ts_longterm_forecast_module/ 目录中,替换原有的模型。根据需要选择要使用的部署SDK:offline_sdk 目录对应推理SDK,serving_sdk 目录对应服务化部署SDK。按照SDK文档(README.md)中的说明,完成部署环境准备。
python infer.py \
--csv_path test.csv \
--device gpu \
--save_dir ./output_infer \
--checkpoints ./model/ts_longterm_forecast_module/best_accuracy.pdparams.tar \
--visual True \
--serial_num <serial_num> \
--update_license True
其他产线的 Python API 集成方式可以参考PaddleX 模型产线推理预测。 PaddleX 同样提供了高性能的离线部署和服务化部署方式,具体参考基于 FastDeploy 的模型产线部署。