Browse Source

update docs

cuicheng01 1 year ago
parent
commit
408c76f1e6

+ 181 - 27
README.md

@@ -12,23 +12,34 @@
 </p>
 
 ## 简介
-PaddleX3.0 是飞桨精选模型的低代码开发工具,支持国内外多款主流硬件的模型训练和推理,覆盖工业、能源、金融、交通、教育等全行业,助力开发者产业实践落地。
+PaddleX3.0beta 是飞桨精选模型的低代码开发工具,支持国内外多款主流硬件的模型训练和推理,覆盖工业、能源、金融、交通、教育等全行业,助力开发者产业实践落地。
+
+|                **通用图像分类**                 |                **通用目标检测**                 |                **通用语义分割**                 |                **通用实例分割**                 |
+| :-------------------------------------------: | :-------------------------------------------: | :-------------------------------------------: | :-------------------------------------------: |
+|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/b302cd7e-e027-4ea6-86d0-8a4dd6d61f39" height="126px" width="180px">|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/a8b5df77-72e0-4bdb-afed-4594fe57bfdc" height="126px" width="180px">|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/02637f8c-f248-415b-89ab-1276505f198c" height="126px" width="180px">|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/0565d3c8-cdab-4735-809d-29ab9d3bf684" height="126px" width="180px">|
+|                  **通用OCR**                   |                **通用表格识别**                 |               **通用场景信息抽取**               |               **文档场景信息抽取**               |
+|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/1ef48536-48d4-484b-a6fb-0d6631ba2386" height="126px" width="180px">|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/1e798e05-dee7-4b41-9cc4-6708b6014efa" height="126px" width="180px">|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/04218629-4a7b-48ea-b815-977a05fbbb13" height="126px" width="180px">|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/e3d97f4e-ab46-411c-8155-494c61492b0a" height="126px" width="180px">|
+|                  **时序预测**                   |                **时序异常检测**                 |                 **时序分类**                   |              **多模型融合时序预测**              |
+|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/6e897bf6-35fe-45e6-a040-e9a1a20cfdf2" height="126px" width="180px">|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/c54c66cc-da4f-4631-877b-43b0fbb192a6" height="126px" width="180px">|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/0ce925b2-3776-4dde-8ce0-5156d5a2476e" height="126px" width="180px">|<img src="https://github.com/PaddlePaddle/PaddleX/assets/142379845/0959d099-a17c-40bc-9c2b-13f4f5e24ddc" height="126px" width="180px">|
+
+
 
-任务示例展示
 
 ## 📣 近期更新
-🔥 PaddleX3.0 升级中,6 月正式发布,敬请期待,云端使用请前往飞桨 AI Studio 星河社区:https://aistudio.baidu.com/pipeline/mine ,点击「创建产线」开启使用。
+
+- 🔥 **2024.6.27,PaddleX3.0 beta 本地端正式发布,支持以低代码的方式在本地端使用多种主流硬件进行产线和模型开发。**
+- 🔥 **2024.3.25,PaddleX3.0 云端发布,支持在[星河社区](https://aistudio.baidu.com/pipeline/mine )以零代码的方式【创建产线】使用。**
 
 ## 🌟 特性
 
-PaddleX 3.0 集成飞桨生态优势能力,覆盖7大场景任务,构建 16 条模型产线,提供低代码开发模式,助力开发者在不同主流硬件上进行模型全流程开发。
+PaddleX 3.0beta 集成飞桨生态优势能力,覆盖 7 大场景任务,构建 16 条模型产线,提供低代码开发模式,助力开发者在多种主流硬件上实现模型全流程开发。
 
-  - **基础模型产线(模型数量多,场景全):** 精选 72 个飞桨优质模型,覆盖图像分类、目标检测、图像分割、OCR、文本图像版面分析、时序预测等场景任务
-  - **特色模型产线(提效显著):** 提供大小模型结合,大模型半监督学习和多模型融合显著提效方案
-  - **低代码开发模式(便捷开发部署):** 提供零代码和低代码两种开发方式。
-     - 零代码开发通过用户图形界面(GUI)交互式提交后台训练任务,打通在线&离线部署,支持以 API 的形式调用在线服务。
-     - 低代码开发,一套 API 接口实现 16 条模型产线全流程开发,同时支持用户自定义模型串联流程
-  - **本地端多硬件支持(兼容性强):** 支持英伟达 GPU、昆仑芯、昇腾和寒武纪多硬件上,纯离线使用 
+- **基础模型产线(模型丰富,场景全面):** 精选 68 个优质飞桨模型,涵盖图像分类、目标检测、图像分割、OCR、文本图像版面分析、时序预测等任务场景。
+- **特色模型产线(显著提升效率):** 提供大小模型结合、大模型半监督学习和多模型融合的高效解决方案。
+- **低代码开发模式(便捷开发部署):** 提供零代码和低代码两种开发方式。
+  - 零代码开发:用户通过图形界面(GUI)交互式提交后台训练任务,打通在线和离线部署,并支持以 API 形式调用在线服务。
+  - 低代码开发:通过统一的 API 接口实现 16 条模型产线的全流程开发,同时支持用户自定义模型流程串联。
+- **多硬件本地支持(兼容性强):** 支持英伟达 GPU、昆仑芯、昇腾和寒武纪等多种硬件,纯离线使用。
 
 <div align="center">
     <img src="https://github.com/PaddlePaddle/PaddleX/assets/45199522/61c4738f-735e-4ceb-aa5f-1038d4506d1c">
@@ -37,36 +48,178 @@ PaddleX 3.0 集成飞桨生态优势能力,覆盖7大场景任务,构建 16
 ## ⚡ 安装与快速开始
 - [安装](./docs/tutorials/INSTALL.md)
 - 快速开始
-  - [单模型开发工具](./docs/tutorials/inference/model_inference_tools.md)
-  - [模型产线开发工具](./docs/tutorials/inference/pipeline_inference_tools.md)
+  - [单模型开发工具](./docs/tutorials/models/model_inference_tools.md)
+  - [模型产线开发工具](./docs/tutorials/pipelines/pipeline_inference_tools.md)
 
 ## 🛠️ PaddleX3.0 覆盖的模型和模型产线
+
+<table>
+  <tr>
+    <th>模型产线</th>
+    <th>产线模块</th>
+    <th>具体模型</th>
+  </tr>
+  <tr>
+    <td>通用图像分类</td>
+    <td>图像分类</td>
+    <td>CLIP_vit_base_patch16_224<br/>CLIP_vit_large_patch14_224<details>
+    <summary><b>more</b></summary><br/>ConvNeXt_tiny<br/>MobileNetV2_x0_25<br/>MobileNetV2_x0_5<br/>MobileNetV2_x1_0<br/>MobileNetV2_x1_5<br/>MobileNetV2_x2_0<br/>MobileNetV3_large_x0_35<br/>MobileNetV3_large_x0_5<br/>MobileNetV3_large_x0_75<br/>MobileNetV3_large_x1_0<br/>MobileNetV3_large_x1_25<br/>MobileNetV3_small_x0_35<br/>MobileNetV3_small_x0_5<br/>MobileNetV3_small_x0_75<br/>MobileNetV3_small_x1_0<br/>MobileNetV3_small_x1_25<br/>PP-HGNet_small<br/>PP-HGNetV2-B0<br/>PP-HGNetV2-B4<br/>PP-HGNetV2-B6<br/>PP-LCNet_x0_25<br/>PP-LCNet_x0_35<br/>PP-LCNet_x0_5<br/>PP-LCNet_x0_75<br/>PP-LCNet_x1_0<br/>PP-LCNet_x1_5<br/>PP-LCNet_x2_0<br/>PP-LCNet_x2_5<br/>ResNet18<br/>ResNet34<br/>ResNet50<br/>ResNet101<br/>ResNet152<br/>SwinTransformer_base_patch4_window7_224</details></td>
+  </tr>
+  <tr>
+    <td>大模型半监督学习-图像分类</td>
+    <td>大模型半监督学习-图像分类</td>
+    <td>CLIP_vit_base_patch16_224<br/>MobileNetV3_small_x1_0<br/><details><summary><b>more</b></summary>PP-HGNet_small<br/>PP-HGNetV2-B0<br/>PP-HGNetV2-B4<br/>PP-HGNetV2-B6<br/>PP-LCNet_x1_0<br/>ResNet50<br/>SwinTransformer_base_patch4_window7_224</details></td>
+  </tr>
+  <tr>
+    <td>通用目标检测</td>
+    <td>目标检测</td>
+    <td>PicoDet-S<br/>PicoDet-L<details>
+    <summary><b>more</b></summary><br/>PP-YOLOE_plus-S<br/>PP-YOLOE_plus-M<br/>PP-YOLOE_plus-L<br/>PP-YOLOE_plus-X<br/>RT-DETR-L<br/>RT-DETR-H<br/>RT-DETR-X<br/>RT-DETR-R18<br/>RT-DETR-R50</details></td>
+  </tr>
+  <tr>
+    <td>大模型半监督学习-目标检测</td>
+    <td>大模型半监督学习-目标检测</td>
+    <td>PicoDet-S<br/>PicoDet-L<details>
+    <summary><b>more</b></summary><br/>PP-YOLOE plus-S<br/>PP-YOLOE_plus-L<br/>RT-DETR-H</details></td>
+  </tr>
+  <tr>
+    <td>通用语义分割</td>
+    <td>语义分割</td>
+    <td>OCRNet_HRNet-W48<br/>PP-LiteSeg-T<details>
+    <summary><b>more</b></summary><br/>Deeplabv3-R50<br/>Deeplabv3-R101<br/>Deeplabv3_Plus-R50<br/>Deeplabv3_Plus-R101</details></td>
+  </tr>
+  <tr>
+    <td>通用实例分割</td>
+    <td>实例分割</td>
+    <td>Mask-RT-DETR-L<br/>Mask-RT-DETR-H</td>
+  </tr>
+  <tr>
+    <td rowspan="2">通用OCR</td>
+    <td>文本检测</td>
+    <td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>
+  </tr>
+  <tr>
+    <td>文本识别</td>
+    <td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>
+  </tr>
+  </tr>
+  <tr>
+    <td rowspan="2">大模型半监督学习-OCR</td>
+    <td>文本检测</td>
+    <td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>
+  </tr>
+  <tr>
+    <td>大模型半监督学习-文本识别</td>
+    <td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>
+  <tr>
+    <td rowspan="4">通用表格识别</td>
+    <td>版面区域检测</td>
+    <td>PicoDet layout_1x</td>
+  </tr>
+  <tr>
+    <td>表格结构识别</td>
+    <td>SLANet</td>
+  </tr>
+  <tr>
+    <td>文本检测</td>
+    <td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>
+  </tr>
+  <tr>
+    <td>文本识别</td>
+    <td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>
+  </tr>
+  <tr>
+    <td rowspan="3">通用场景信息抽取v2</td>
+    <td>文本识别</td>
+    <td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>
+  </tr>
+  <tr>
+    <td>文本检测</td>
+    <td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>
+  </tr>
+  <tr>
+    <td>prompt工程</td>
+    <td>-</td>
+  </tr>
+  <tr>
+    <td rowspan="5">文档场景信息抽取v2</td>
+    <td>版面分析</td>
+    <td>PicoDet layout_1x</td>
+  </tr>
+  <tr>
+    <td>文本检测</td>
+    <td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>
+  </tr>
+  <tr>
+    <td>文本识别</td>
+    <td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>
+  </tr>
+  <tr>
+    <td>表格识别</td>
+    <td>SLANet</td>
+  </tr>
+  <tr>
+    <td>prompt工程</td>
+    <td>-</td>
+  </tr>
+  <tr>
+    <td rowspan="2">时序预测</td>
+    <td>时序预测</td>
+    <td>DLinear<br/>NLinear<details>
+  <summary><b>more</b></summary><br/>Nonstationary<br/>PatchTST<br/>RLinear<br/>TiDE<br/>TimesNet</details></td>
+  </tr>
+  <tr>
+    <td>多模型融合的时序预测v2</td>
+    <td>多模型融合的时序预测</td>
+  </tr>
+  <tr>
+    <td rowspan="2">时序异常检测</td>
+    <td>时序异常检测</td>
+    <td>AutoEncoder_ad<br/>DLinear_ad<details>
+  <summary><b>more</b></summary><br/>Nonstationary_ad<br/>PatchTST_ad<br/>TimesNet_ad</details></td>
+  </tr>
+  <tr>
+    <td>多模型融合的时序异常检测v2</td>
+    <td>多模型融合的时序异常检测</td>
+  </tr>
+  <tr>
+    <td>时序分类</td>
+    <td>时序分类</td>
+    <td>TimesNet cls</td>
+  </tr>
+</table>
+
+
+
+
   - [单模型列表](./docs/tutorials/models/support_model_list.md)
   - [模型产线列表](./docs/tutorials/pipelines/support_pipeline_list.md)
 
 ## 📖 零代码开发教程
-- [云端图形化开发界面](https://aistudio.baidu.com/pipeline/mine):支持开发者使用零代码产线产出高质量模型和部署包
-- [教程《零门槛开发产业级 AI 模型》](https://aistudio.baidu.com/practical/introduce/546656605663301):提供产业级模型开发经验,并且用12个实用的产业实践案例,手把手带你零门槛开发产业级AI模型
+<div align="center">
+    <img src="https://github.com/PaddlePaddle/PaddleX/assets/45199522/f3238aae-76e3-4b25-8e4f-238fb6096bf8">
+</div>
 
-## 📖 低代码开发教程
+- [云端图形化开发界面](https://aistudio.baidu.com/pipeline/mine):支持开发者使用零代码产线产出高质量模型和部署包。
+- [教程《零门槛开发产业级 AI 模型》](https://aistudio.baidu.com/practical/introduce/546656605663301):提供产业级模型开发经验,并且用 12 个实用的产业实践案例,手把手带你零门槛开发产业级 AI 模型。
 
+## 📖 低代码开发教程
 ### 一、单模型开发工具 🚀
 本节介绍 PaddleX3.0 单模型的全流程开发流程,包括数据准备、模型训练/评估、模型推理的使用方法。PaddleX3.0 支持的模型可以参考 [PaddleX 模型库](./docs/tutorials/models/support_model_list.md)。
-
-#### 1. 快速体验
-- [快速体验](./docs/tutorials/models/model_inference_tools.md)
-
-#### 2. 数据准备
-- [数据准备流程](./docs/tutorials/data/README.md)
-- [数据标注](./docs/tutorials/data/annotation/README.md)
-- [数据校验](./docs/tutorials/data/dataset_check.md)
-
-#### 3. 模型训练/评估/推理
+- 快速体验
+  - [单模型快速体验](./docs/tutorials/models/model_inference_tools.md)
+- 数据准备
+  - [数据准备流程](./docs/tutorials/data/README.md)
+  - [数据标注](./docs/tutorials/data/annotation/README.md)
+  - [数据校验](./docs/tutorials/data/dataset_check.md)
 - [模型训练/评估/推理](./docs/tutorials/base/README.md)
 
 
 ### 二、模型产线开发工具 🔥
-本节将介绍 PaddleX3.0 模型产线的全流程开发流程,包括数据准备、模型训练/评估、模型推理的使用方法。PaddleX3.0 支持的模型产线可以参考 [PaddleX 模型产线列表](./docs/tutorials/pipelines/support_pipeline_list.md)
+本节将介绍 PaddleX3.0 模型产线的全流程开发流程,包括数据准备、模型训练/评估、模型推理的使用方法。PaddleX3.0 支持的模型产线可以参考 [PaddleX 模型产线列表](./docs/tutorials/pipelines/support_pipeline_list.md)。
+- [产线快速体验](./docs/tutorials/pipelines/pipeline_inference_tools.md)
+- [产线模型选择](./docs/tutorials/pipelines/model_select.md)
+- [产线开发流程](./docs/tutorials/pipelines/pipeline_develop.md)
 
 ## 🌟 多硬件支持
 本项目支持在多种硬件上进行模型的开发,除了 GPU 外,当前支持的硬件还有**昆仑芯**、**昇腾芯**、**寒武纪芯**。只需添加一个配置设备的参数,即可在对应硬件上使用上述工具。
@@ -80,4 +233,5 @@ PaddleX 3.0 集成飞桨生态优势能力,覆盖7大场景任务,构建 16
 
 我们非常欢迎您为 PaddleX 贡献代码或者提供使用建议。如果您可以修复某个 issue 或者增加一个新功能,欢迎给我们提交 Pull Requests。
 
-
+## 许可证书
+本项目的发布受[Apache 2.0 license](./LICENSE)许可认证。

+ 129 - 0
docs/CHANGELOG.md

@@ -0,0 +1,129 @@
+# 版本更新信息
+
+## 最新版本信息
+
+### PaddleX v3.0.0beta(6.27/2024)
+PaddleX 3.0beta 集成了飞桨生态的优势能力,覆盖 7 大场景任务,构建了 16 条模型产线,提供低代码开发模式,助力开发者在多种主流硬件上实现模型全流程开发。
+
+- **基础模型产线(模型丰富,场景全面):** 精选 68 个优质飞桨模型,涵盖图像分类、目标检测、图像分割、OCR、文本图像版面分析、时序预测等任务场景。
+- **特色模型产线(显著提升效率):** 提供大小模型结合、大模型半监督学习和多模型融合的高效解决方案。
+- **低代码开发模式(便捷开发与部署):** 提供零代码和低代码两种开发方式。
+  - 零代码开发:用户通过图形界面(GUI)交互式提交后台训练任务,打通在线和离线部署,并支持以 API 形式调用在线服务。
+  - 低代码开发:通过统一的 API 接口实现 16 条模型产线的全流程开发,同时支持用户自定义模型流程串联。
+- **多硬件本地支持(兼容性强):** 支持英伟达 GPU、昆仑芯、昇腾和寒武纪等多种硬件,纯离线使用。
+
+### PaddleX v2.1.0(12.10/2021)
+
+新增超轻量分类模型PPLCNet,在Intel CPU上,单张图像预测速度约5ms,ImageNet-1K数据集上Top1识别准确率达到80.82%,超越ResNet152的模型效果 欢迎体验
+新增轻量级检测特色模型PP-PicoDet,第一个在1M参数量之内mAP(0.5:0.95)超越30+(输入416像素时),网络预测在ARM CPU下可达150FPS 欢迎体验
+升级PaddleX Restful API,支持飞桨动态图开发模式 欢迎体验
+新增检测模型负样本训练策略 欢迎体验
+新增python轻量级服务化部署 欢迎体验
+
+### PaddleX v2.0.0(9.10/2021)
+* PaddleX API
+  - 新增检测任务和实例分割任务的预测结果可视化、以及预测错误原因分析,辅助分析模型效果
+  - 新增检测任务的负样本优化,抑制背景区域的误检
+  - 完善语义分割任务的预测结果,支持返回预测类别和归一化后的预测置信度
+  - 完善图像分类任务的预测结果,支持返回归一化后的预测置信度
+* 预测部署
+  - 完备PaddleX python预测部署, PaddleX模型使用2个API即可快速完成部署
+  - PaddleX C++部署全面升级,支持飞桨视觉套件PaddleDetection、PaddleClas、PaddleSeg、PaddleX的端到端统一部署能力
+  - 全新发布Manufacture SDK,提供工业级多端多平台部署加速的预编译飞桨部署开发包(SDK),通过配置业务逻辑流程文件即可以低代码方式快速完成推理部署
+* PaddleX GUI
+  - 升级PaddleX GUI,支持30系列显卡
+  - 目标检测任务新增模型PP-YOLO V2, COCO test数据集精度达到49.5%、V100预测速度达到68.9 FPS
+  - 目标检测任务新增4.2MB的超轻量级模型PP-YOLO tiny
+  - 语义分割任务新增实时分割模型BiSeNetV2
+  - 新增导出API训练脚本功能,无缝切换PaddleX API训练
+* 产业实践案例
+  - 新增以目标检测任务为主的钢筋计数、缺陷检测案例教程
+  - 新增以实例分割任务为主的机械手抓取案例教程
+  - 新增串联目标检测、语义分割、传统视觉算法的工业表计读数的训练和部署案例教程
+  - 新增Windows系统下使用C#语言部署案例教程
+
+### PaddleX v2.0.0rc0(5.19/2021)
+* 全面支持飞桨2.0动态图,更易用的开发模式
+* 目标检测任务新增[PP-YOLOv2](https://github.com/PaddlePaddle/PaddleX/blob/release/2.0-rc/tutorials/train/object_detection/ppyolov2.py), COCO test数据集精度达到49.5%、V100预测速度达到68.9 FPS 
+* 目标检测任务新增4.2MB的超轻量级模型[PP-YOLO tiny](https://github.com/PaddlePaddle/PaddleX/blob/release/2.0-rc/tutorials/train/object_detection/ppyolotiny.py)
+* 语义分割任务新增实时分割模型[BiSeNetV2](https://github.com/PaddlePaddle/PaddleX/blob/release/2.0-rc/tutorials/train/semantic_segmentation/bisenetv2.py)
+* C++部署模块全面升级
+    * PaddleInference部署适配2.0预测库[(使用文档)](https://github.com/PaddlePaddle/PaddleX/tree/release/2.0-rc/deploy/cpp)
+    * 支持飞桨[PaddleDetection]( https://github.com/PaddlePaddle/PaddleX/blob/release/2.0-rc/deploy/cpp/docs/models/paddledetection.md)、[PaddleSeg]( https://github.com/PaddlePaddle/PaddleX/blob/release/2.0-rc/deploy/cpp/docs/models/paddleseg.md)、[PaddleClas](https://github.com/PaddlePaddle/PaddleX/blob/release/2.0-rc/deploy/cpp/docs/models/paddleclas.md)以及PaddleX的模型部署
+    * 新增基于PaddleInference的GPU多卡预测[(使用文档)](https://github.com/PaddlePaddle/PaddleX/blob/release/2.0-rc/deploy/cpp/docs/demo/multi_gpu_model_infer.md)
+    * GPU部署新增基于ONNX的的TensorRT高性能加速引擎部署方式
+    * GPU部署新增基于ONNX的Triton服务化部署方式[(使用文档)](https://github.com/PaddlePaddle/PaddleX/blob/release/2.0-rc/deploy/cpp/docs/compile/triton/docker.md)
+
+### PaddleX v1.3.0(12.19/2020)
+
+- 模型更新
+  > - 图像分类模型ResNet50_vd新增10万分类预训练模型 
+  > - 目标检测模型FasterRCNN新增模型裁剪支持
+  > - 目标检测模型新增多通道图像训练支持
+
+- 模型部署更新
+  > - 修复OpenVINO部署C++代码中部分Bug
+  > - 树莓派部署新增Arm V8支持
+
+- 产业案例更新
+ > - 新增工业质检产业案例,提供基于GPU和CPU两种部署场景下的工业质检方案,及与质检相关的优化策略 [详情链接](https://paddlex.readthedocs.io/zh_CN/develop/examples/industrial_quality_inspection)
+
+- **新增RestFUL API模块**
+新增RestFUL API模块,开发者可通过此模块快速开发基于PaddleX的训练平台
+ > - 增加基于RestFUL API的HTML Demo [详情链接](https://github.com/PaddlePaddle/PaddleX/blob/develop/docs/gui/introduction.md#paddlex-web-demo)
+ > - 增加基于RestFUL API的Remote版可视化客户端 [详情链接](https://github.com/PaddlePaddle/PaddleX/blob/develop/docs/gui/introduction.md#paddlex-remote-gui)
+新增模型通过OpenVINO的部署方案[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/deploy/openvino/index.html)
+
+### PaddleX v1.2.0(9.9/2020)
+- 模型更新
+  > - 新增目标检测模型PPYOLO[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/apis/models/detection.html#paddlex-det-ppyolo)
+  > - FasterRCNN、MaskRCNN、YOLOv3、DeepLabv3p等模型新增内置COCO数据集预训练模型
+  > - 目标检测模型FasterRCNN和MaskRCNN新增backbone HRNet_W18[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/apis/models/detection.html#paddlex-det-fasterrcnn)
+  > - 语义分割模型DeepLabv3p新增backbone MobileNetV3_large_ssld[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/apis/models/semantic_segmentation.html#paddlex-seg-deeplabv3p)
+
+- 模型部署更新
+  > - 新增模型通过OpenVINO的部署方案[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/deploy/openvino/index.html)
+  > - 新增模型在树莓派上的部署方案[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/deploy/raspberry/index.html)
+  > - 优化PaddleLite Android部署的数据预处理和后处理代码性能
+  > - 优化Paddle服务端C++代码部署代码,增加use_mkl等参数,通过mkldnn显著提升模型在CPU上的预测性能
+
+- 产业案例更新
+  > - 新增RGB图像遥感分割案例[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/examples/remote_sensing.html)
+  > - 新增多通道遥感分割案例[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/examples/multi-channel_remote_sensing/README.html)
+
+- 其它
+  > - 新增数据集切分功能,支持通过命令行切分ImageNet、PascalVOC、MSCOCO和语义分割数据集[详情链接](https://paddlex.readthedocs.io/zh_CN/develop/data/format/classification.html#id2)
+
+### PaddleX v1.1.0(7.13/2020)
+- 模型更新
+> - 新增语义分割模型HRNet、FastSCNN
+> - 目标检测FasterRCNN、实例分割MaskRCNN新增backbone HRNet
+> - 目标检测/实例分割模型新增COCO数据集预训练模型
+> - 集成X2Paddle,PaddleX所有分类模型和语义分割模型支持导出为ONNX协议
+- 模型部署更新
+> - 模型加密增加支持Windows平台
+> - 新增Jetson、PaddleLite模型部署预测方案
+> - C++部署代码新增batch批预测,并采用OpenMP对预处理进行并行加速
+- 新增2个PaddleX产业案例
+> - 人像分割案例
+> - 工业表计读数案例
+- 新增数据格式转换功能,LabelMe、精灵标注助手和EasyData平台标注的数据转为PaddleX支持加载的数据格式
+- PaddleX文档更新,优化文档结构
+
+
+### PaddleX v1.0.0(5.21/2020)
+
+- **全流程打通**
+  - **数据准备**:支持[EasyData智能数据服务平台](https://ai.baidu.com/easydata/)数据协议,通过平台便捷完成智能标注,低质数据清洗工作, 同时兼容主流标注工具协议, 助力开发者更快完成数据准备工作。
+  - **模型训练**:集成[PaddleClas](https://github.com/PaddlePaddle/PaddleClas), [PaddleDetection](https://github.com/PaddlePaddle/PaddleDetection), [PaddleSeg](https://github.com/PaddlePaddle/PaddleSeg)视觉开发套件,丰富的高质量预训练模型,更快实现工业级模型效果。
+  - **模型调优**:内置模型可解释性模块、[VisualDL](https://github.com/PaddlePaddle/VisualDL)可视化分析组件, 提供丰富的信息更好地理解模型,优化模型。
+  - **多端安全部署**:内置[PaddleSlim](https://github.com/PaddlePaddle/PaddleSlim)模型压缩工具和**模型加密部署模块**,结合Paddle Inference或[Paddle Lite](https://github.com/PaddlePaddle/Paddle-Lite)便捷完成高性能的多端安全部署。
+
+- **融合产业实践**
+  - 精选飞桨产业实践的成熟模型结构,开放案例实践教程,加速开发者产业落地。
+
+- **易用易集成**
+  - 统一易用的全流程API,5步完成模型训练,10行代码实现Python/C++高性能部署。
+  - 提供以PaddleX为核心集成的跨平台可视化工具PaddleX-GUI,快速体验飞桨深度学习全流程。
+
+

+ 49 - 28
docs/tutorials/INSTALL.md

@@ -1,50 +1,68 @@
 # 环境准备与安装
 
-使用 PaddleX 前,需要进行环境准备,安装依赖项,主要包括安装飞桨 PaddlePaddle 框架、获取 PaddleX 源码并安装依赖
+使用 PaddleX 前,需要进行环境准备,安装依赖项,推荐使用 PaddleX 官方镜像安装,也可使用其他自定义方式安装
 
-## 1. 安装飞桨 PaddlePaddle
+## 【推荐】 使用 PaddleX 官方镜像安装
 
-### 1.1 安装
+PaddleX 官方镜像中已经内置了 PaddlePaddle、PaddleX,无需单独安装,获取 Docker 镜像并启动容器即可使用。
 
-#### 【推荐】使用 Docker 安装
+参考下述命令,使用 PaddleX 官方 Docker 镜像,创建一个名为 `paddlex` 的容器,并将当前工作目录映射到容器内的 `/paddle` 目录。
+
+```bash
+# 对于 CUDA11.8 用户
+sudo nvidia-docker run --name paddlex -v $PWD:/paddle --shm-size=8G --network=host -it registry.baidubce.com/paddlex/paddlex:3.0.0b0-gpu-cuda11.8-cudnn8.9-trt8.5 /bin/bash
+
+# 对于 CUDA12.3 用户
+sudo docker run --name paddlex -v $PWD:/paddle --shm-size=8G --network=host -it registry.baidubce.com/paddlex/paddlex:3.0.0b0-gpu-cuda12.3-cudnn9.0-trt8.6 /bin/bash
+```
+
+## 其他自定义方式安装
+
+自定义安装流程主要包括安装飞桨 PaddlePaddle 框架、获取 PaddleX 源码并安装依赖。
+
+### 1. 安装飞桨 PaddlePaddle
+
+#### 1.1 安装
+
+##### 【推荐】使用 Docker 安装
 
 参考下述命令,使用飞桨官方 Docker 镜像,创建一个名为 `paddlex` 的容器,并将当前工作目录映射到容器内的 `/paddle` 目录。
 
-```shell
-# 对于 GPU 用户
-sudo nvidia-docker run --name paddlex -v $PWD:/paddle --shm-size=8G --network=host -it registry.baidubce.com/paddlepaddle/paddle:2.6.1-gpu-cuda12.0-cudnn8.9-trt8.6 /bin/bash
+```bash
+# 对于 gpu 用户
+# CUDA11.8 用户
+sudo nvidia-docker run --name paddlex -v $PWD:/paddle --shm-size=8G --network=host -it registry.baidubce.com/paddlepaddle/paddle:3.0.0b0-gpu-cuda11.8-cudnn8.6-trt8.5 /bin/bash
 
-# 对于 CPU 用户
-sudo docker run --name paddlex -v $PWD:/paddle --shm-size=8G --network=host -it registry.baidubce.com/paddlepaddle/paddle:2.6.1 /bin/bash
+# CUDA12.3 用户
+sudo nvidia-docker run --name paddlex -v $PWD:/paddle  --shm-size=8G --network=host -it registry.baidubce.com/paddlepaddle/paddle:3.0.0b0-gpu-cuda12.3-cudnn9.0-trt8.6 /bin/bash
 ```
 
 更多飞桨官方 docker 镜像请参考[飞桨官网](https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/docker/linux-docker.html)。
 
 **注意**:
 * 首次使用该镜像时,下述命令会自动下载该镜像文件,下载需要一定的时间,请耐心等待;
-* 请使用 **3.0** 版本的 PaddlePaddle;
 * 上述命令会创建一个名为 paddlex 的 Docker 容器,之后再次使用该容器时无需再次运行该命令;
 * 参数 `--shm-size=8G` 将设置容器的共享内存为 8G,如机器环境允许,建议将该参数设置较大,如 `64G`;
+* 上述镜像中默认的 Python 版本为 Python3.10,默认已经安装 PaddlePaddle 3.0beta0,如果您需要创建新的 Python 环境使用 PaddlePaddle,请参考下述 pip 安装方式。
 
-#### 使用 pip 安装
+##### 使用 pip 安装
 
-参考下述命令,用 pip 在当前环境中安装飞桨 PaddlePaddle。
+参考下述命令,用 pip 在当前环境中安装飞桨 PaddlePaddle。
 
-<!-- 这里需要指定 paddle3.0 版本 -->
 ```bash
-# GPU,该命令仅适用于 CUDA 版本为 12 的机器环境,对于其他 CUDA 版本的支持请参考飞桨官网
-python -m pip install paddlepaddle-gpu==2.6.1.post120 -f https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html
+# gpu,该命令仅适用于 CUDA 版本为 11.8 的机器环境
+ python -m pip install paddlepaddle-gpu==3.0.0b0 -i https://www.paddlepaddle.org.cn/packages/stable/cu118/
 
-# CPU
-python -m pip install paddlepaddle==2.6.1 -f https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html
-```
+# gpu,该命令仅适用于 CUDA 版本为 12.3 的机器环境
+ python -m pip install paddlepaddle-gpu==3.0.0b0 -i https://www.paddlepaddle.org.cn/packages/stable/cu123/
 
+```
 更多飞桨 Wheel 版本请参考[飞桨官网](https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/pip/linux-pip.html)。
 
-#### 更多安装方式
+##### 更多安装方式
 关于其他硬件安装飞桨,请参考[多硬件安装飞桨](./INSTALL_OTHER_DEVICES.md)。
 
-### 1.2 验证
+#### 1.2 验证
 
 使用以下命令可以验证 PaddlePaddle 是否安装成功。
 
@@ -58,30 +76,33 @@ python -c "import paddle; paddle.utils.run_check()"
 python -c "import paddle; print(paddle.__version__)"
 ```
 
-<!-- 这里需要指明输出什么内容则表示正确 -->
+如果安装成功,将输出如下内容:
+```bash
+3.0.0-beta0
+```
 
 
-## 2. 安装 PaddleX
+### 2. 安装 PaddleX
 
-### 2.1 获取源码
+#### 2.1 获取源码
 
-#### 【推荐】从 GitHub 下载
+##### 【推荐】从 GitHub 下载
 
 使用下述命令从 GitHub 获取 PaddleX 最新源码。
 
-```shell
+```bash
 git clone https://github.com/PaddlePaddle/PaddleX.git
 ```
 
-#### 从 Gitee 下载
+##### 从 Gitee 下载
 
 如果访问 GitHub 网速较慢,可以从 Gitee 下载,命令如下:
 
-```shell
+```bash
 git clone https://gitee.com/paddlepaddle/PaddleX.git
 ```
 
-### 2.2 安装配置及依赖
+#### 2.2 安装配置及依赖
 
 参考下述命令,按提示操作,完成 PaddleX 依赖的安装。
 

+ 19 - 19
docs/tutorials/INSTALL_OTHER_DEVICES.md

@@ -3,14 +3,14 @@
 ## 1. 昇腾 NPU 飞桨安装
 ### 1.1 环境准备
 当前 PaddleX 支持昇腾 910B 芯片,昇腾驱动版本为 23.0.3。考虑到环境差异性,我们推荐使用飞桨官方提供的标准镜像完成环境准备。
-- 1.拉取镜像,此镜像仅为开发环境,镜像中不包含预编译的飞桨安装包,镜像中已经默认安装了昇腾算子库 CANN-8.0.RC1。
+- 1. 拉取镜像,此镜像仅为开发环境,镜像中不包含预编译的飞桨安装包,镜像中已经默认安装了昇腾算子库 CANN-8.0.RC1。
 
 ```
-# 适用于 X86 架构,暂时不提供 Arrch64 架构镜像
+# 适用于 X86 架构,暂时不提供 Arch64 架构镜像
 docker pull registry.baidubce.com/device/paddle-npu:cann80RC1-ubuntu20-x86_64-gcc84-py39
 ```
 
-- 2.参考如下命令启动容器,ASCEND_RT_VISIBLE_DEVICES 指定可见的 NPU 卡号
+- 2. 参考如下命令启动容器,ASCEND_RT_VISIBLE_DEVICES 指定可见的 NPU 卡号
 ```
 docker run -it --name paddle-npu-dev -v $(pwd):/work \
     --privileged --network=host --shm-size=128G -w=/work \
@@ -23,14 +23,14 @@ docker run -it --name paddle-npu-dev -v $(pwd):/work \
 ### 1.2 安装 paddle 包
 当前提供 Python3.9 的 wheel 安装包。如有其他 Python 版本需求,可以参考[飞桨官方文档](https://www.paddlepaddle.org.cn/install/quick)自行编译安装。
 
-- 1.下载安装 Python3.9 的 wheel 安装包
+- 1. 下载安装 Python3.9 的 wheel 安装包
 
 ```
-# 注意需要先安装飞桨CPU版本
+# 注意需要先安装飞桨 cpu 版本
 pip install https://paddle-model-ecology.bj.bcebos.com/paddlex/whl/paddle-device/npu/paddlepaddle-0.0.0-cp39-cp39-linux_x86_64.whl
 pip install https://paddle-model-ecology.bj.bcebos.com/paddlex/whl/paddle-device/npu/paddle_custom_npu-0.0.0-cp39-cp39-linux_x86_64.whl
 ```
-- 2.验证安装包
+- 2. 验证安装包
 安装完成之后,运行如下命令。
 ```
 python -c "import paddle; paddle.utils.run_check()"
@@ -46,12 +46,12 @@ PaddlePaddle is installed successfully! Let's start deep learning with PaddlePad
 ## 2. 寒武纪 MLU 飞桨安装
 ### 2.1 环境准备
 考虑到环境差异性,我们推荐使用飞桨官方提供的标准镜像完成环境准备。
-- 拉取镜像,此镜像仅为开发环境,镜像中不包含预编译的飞桨安装包
+- 1. 拉取镜像,此镜像仅为开发环境,镜像中不包含预编译的飞桨安装包
 ```
-# 适用于 X86 架构,暂时不提供 Arrch64 架构镜像
+# 适用于 X86 架构,暂时不提供 Arch64 架构镜像
 docker pull registry.baidubce.com/device/paddle-mlu:ctr2.15.0-ubuntu20-gcc84-py310
 ```
-- 参考如下命令启动容器
+- 2. 参考如下命令启动容器
 ```
 docker run -it --name paddle-mlu-dev -v $(pwd):/work \
   -w=/work --shm-size=128G --network=host --privileged  \
@@ -62,13 +62,13 @@ docker run -it --name paddle-mlu-dev -v $(pwd):/work \
 ### 2.2 安装 paddle 包
 当前提供 Python3.10 的 wheel 安装包。有其他 Python 版本需求,可以参考[飞桨官方文档](https://www.paddlepaddle.org.cn/install/quick)自行编译安装。
 
-- 1.下载安装 Python3.10 的wheel 安装包。
+- 1. 下载安装 Python3.10 的wheel 安装包。
 ```
-# 注意需要先安装飞桨 CPU 版本
+# 注意需要先安装飞桨 cpu 版本
 pip install https://paddle-model-ecology.bj.bcebos.com/paddlex/whl/paddle-device/mlu/paddlepaddle-3.0.0.dev20240621-cp310-cp310-linux_x86_64.whl
 pip install https://paddle-model-ecology.bj.bcebos.com/paddlex/whl/paddle-device/mlu/paddle_custom_mlu-3.0.0.dev20240621-cp310-cp310-linux_x86_64.whl
 ```
-- 2.验证安装包
+- 2. 验证安装包
 安装完成之后,运行如下命令。
 ```
 python -c "import paddle; paddle.utils.run_check()"
@@ -81,15 +81,15 @@ PaddlePaddle works well on 16 mlus.
 PaddlePaddle is installed successfully! Let's start deep learning with PaddlePaddle now.
 ```
 
-# 3.昆仑 XPU 飞桨安装
-## 3.1 环境准备
+## 3.昆仑 XPU 飞桨安装
+### 3.1 环境准备
 考虑到环境差异性,我们推荐使用飞桨官方发布的昆仑 XPU 开发镜像,该镜像预装有昆仑基础运行环境库(XRE)。
-- 1.拉取镜像,此镜像仅为开发环境,镜像中不包含预编译的飞桨安装包
+- 1. 拉取镜像,此镜像仅为开发环境,镜像中不包含预编译的飞桨安装包
 ```
 docker pull registry.baidubce.com/device/paddle-xpu:ubuntu20-x86_64-gcc84-py310 # X86 架构
 docker pull registry.baidubce.com/device/paddle-xpu:kylinv10-aarch64-gcc82-py310 # ARM 架构
 ```
-- 2.参考如下命令启动容器
+- 2. 参考如下命令启动容器
 ```
 docker run -it --name=xxx -m 81920M --memory-swap=81920M \
     --shm-size=128G --privileged --net=host \
@@ -97,15 +97,15 @@ docker run -it --name=xxx -m 81920M --memory-swap=81920M \
     registry.baidubce.com/device/paddle-xpu:kylinv10-aarch64-gcc82 bash
 ```
 
-## 3.2 安装 paddle 包
+### 3.2 安装 paddle 包
 当前提供 Python3.10 的 wheel 安装包。有其他 Python 版本需求,可以参考[飞桨官方文档](https://www.paddlepaddle.org.cn/install/quick)自行编译安装。
 
-- 1.安装 Python3.10 的 wheel 安装包
+- 1. 安装 Python3.10 的 wheel 安装包
 ```
 pip install https://paddle-model-ecology.bj.bcebos.com/paddlex/whl/paddle-device/xpu/paddlepaddle_xpu-2.6.1-cp310-cp310-linux_x86_64.whl # X86 架构
 pip install https://paddle-model-ecology.bj.bcebos.com/paddlex/whl/paddle-device/xpu/paddlepaddle_xpu-2.6.1-cp310-cp310-linux_aarch64.whl # ARM 架构
 ```
-- 2.验证安装包
+- 2. 验证安装包
 安装完成之后,运行如下命令
 ```
 python -c "import paddle; paddle.utils.run_check()"

+ 4 - 4
docs/tutorials/base/README.md

@@ -18,7 +18,7 @@ PaddleX 中每个模型都提供了模型开发的配置文件,用于设置相
 
 * `Global`:
     * `mode`:模式,支持数据校验(`check_dataset`)、模型训练(`train`)、模型评估(`evaluate`);
-    * `device`:训练设备,可选`cpu`、`gpu`、`xpu`、`npu`、`mlu`,除 CPU 外,多卡训练可指定卡号,如:`gpu:0,1,2,3`;
+    * `device`:训练设备,可选`cpu`、`gpu`、`xpu`、`npu`、`mlu`,除 cpu 外,多卡训练可指定卡号,如:`gpu:0,1,2,3`;
 * `Train`:训练超参数设置;
     * `epochs_iters`:训练轮次数设置;
     * `learning_rate`:训练学习率设置;
@@ -26,7 +26,7 @@ PaddleX 中每个模型都提供了模型开发的配置文件,用于设置相
 更多超参数介绍,请参考 [PaddleX 超参数介绍](./hyperparameters_introduction.md)。
 
 **注:**
-- 以上参数可以通过追加令行参数的形式进行设置,如指定模式为模型训练:`-o Global.mode=train`;指定前 2 卡 GPU 训练:`-o Global.device=gpu:0,1`;设置训练轮次数为 10:`-o Train.epochs_iters=10`。
+- 以上参数可以通过追加令行参数的形式进行设置,如指定模式为模型训练:`-o Global.mode=train`;指定前 2 卡 gpu 训练:`-o Global.device=gpu:0,1`;设置训练轮次数为 10:`-o Train.epochs_iters=10`。
 - 模型训练过程中,PaddleX 会自动保存模型权重文件,默认为`output`,如需指定保存路径,可通过配置文件中 `-o Global.output` 字段进行设置。
 - 在 OCR 和语义分割任务模块中,参数 `epochs_iters` 对应训练 Step 数,在其他任务模块中,参数 `epochs_iters` 对应训练 Epoch 数。
 
@@ -62,7 +62,7 @@ python main.py -c paddlex/configs/image_classification/PP-LCNet_x1_0.yaml \
 ### 4.1 训练须知事项
 
 - 训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以详情[模型库](../models/support_model_list.md)。
-- PaddleX 对您屏蔽了动态图权重和静态图权重的概念,在模型训练的过程中,会同时产出动态图和静态图的权重,在模型推理时,默认选择静态图权重推理。
+- PaddleX 对您屏蔽了动态图权重和静态图权重的概念。除时序模型外,在模型训练的过程中,会同时产出动态图和静态图的权重,在模型推理时,默认选择静态图权重推理。
 
 ### 4.2 训练产出解释
 
@@ -71,4 +71,4 @@ python main.py -c paddlex/configs/image_classification/PP-LCNet_x1_0.yaml \
 * train_result.json:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等;
 * train.log:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;
 * config.yaml:训练配置文件,记录了本次训练的超参数的配置;
-* .pdparams\.pdema\.pdopt\.pdstate\.pdiparams\.pdmodel:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;
+* .pdparams、.pdema、.pdopt.pdstate、.pdiparams、.pdmodel:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;

+ 14 - 4
docs/tutorials/base/hyperparameters_introduction.md

@@ -10,13 +10,23 @@ PaddleX 暴露了模型迭代中最常修改的参数,方便您在配置文件
 - `class_num`:类别数量,数据集中的类别数(若有类别概念),由于类别数量和数据集直接相关,我们无法填充默认值,请根据数据校验的结果进行填写,类别数量需要准确,否则可能引起训练失败。
 - `learning_rate`:学习率,模型训练过程中梯度调整的步长,通常与批大小成正比例关系,学习率设置过大可能会导致模型训练不收敛,设置过小可能会导致模型收敛速度过慢。在不同的数据集上学习率可能不同,对结果影响较大,需要不断调试。
 
-对于时序任务模块,基础参数包括`time_col`,`target_cols`,`group_id`,`static_cov_cols`,`freq`,`seq_len`。相关的参数解释如下:
+对于时序任务模块,基础参数还包括时序相关的参数,对于时序预测任务,包括`time_col`,`target_cols`,`freq`,`seq_len`,`predict_len`。相关的参数解释如下:
 - `time_col`:时间列,须结合自己的数据设置时间序列数据集的时间列的列名称。
 - `target_cols`:目标变量列,须结合自己的数据设置时间序列数据集的目标变量的列名称,可以为多个,多个之间用','分隔。
-- `group_id`:分组列名,时序数据中表示分组标识的列名称。
--  `static_cov_cols`:标签变量,代表时序的类别,须结合自己的数据设置类别的列名称,如:label。
 - `freq`:频率,须结合自己的数据设置时间频率,如:1min、5min、1h。
-- `seq_len`:群组编号,须结合自己的数据设置指定群组编号的列名称, 如:group_id, 群组编号表示的是每个时序样本。
+- `seq_len`:输入给模型的历史时间序列长度;输入长度建议结合实际场景及预测长度综合考虑,一般来说设置的越大,能够参考的历史信息越多,模型精度通常越高。
+- `predict_len`:希望模型预测未来序列的长度;预测长度建议结合实际场景综合考虑,一般来说设置的越大,希望预测的未来序列越长,模型精度通常越低。
+
+对于时序异常检测任务,参数包括:`time_col`,`freq`,`feature_cols`,`seq_len`,`label_col`。 其中`time_col`与`freq`与上面的时序预测任务含义一直。其他相关的参数解释如下:
+- `feature_cols`:特征变量表示能够判断设备是否异常的相关变量,例如设备是否异常,可能与设备运转时的散热量有关。结合自己的数据,设置特征变量的列名称,可以为多个,多个之间用','分隔。
+- `label_col`:标签列,代表时序时间点是否异常的编号,异常点为 1,正常点为 0。
+- `seq_len`:输入给模型的时间序列长度,会按照该长度对时间序列切片,预测该长度下这一段时序序列是否有异常;输入长度建议结合实际场景考虑。
+
+对于时序分类任务,基础参数包括:`time_col`,`freq`,`target_cols`,`group_id`,`static_cov_cols`。其中`time_col`与`freq`与上面的时序预测任务含义一直。其他相关的参数解释如下:
+
+- `target_cols`:目标变量列,须结合自己的数据设置时间序列数据集的目标变量的列名称,可以为多个,多个之间用','分隔。
+- `group_id`:分组列,须结合自己的数据设置时间序列数据集的分组列的列名称。一个群组编号表示的是一个时序样本,相同编号的时序序列组成一个样本。
+- `static_cov_cols`:静态特征列,代表时序的类别编号列,同一个样本的标签相同。结合自己的数据设置类别的列名称。
 
 ## 2. 进阶参数
 

+ 1 - 1
docs/tutorials/data/README.md

@@ -78,4 +78,4 @@ python main.py -c paddlex/configs/image_classification/PP-LCNet_x1_0.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。

+ 4 - 0
docs/tutorials/data/annotation/DetAnnoTools.md

@@ -109,6 +109,8 @@ labelme images --labels label.txt --nodata --autosave --output annotations
 </center>
 
 9. 调整目录得到安全帽检测标准labelme格式数据集
+
+  &emsp;&emsp;
   a. 在数据集根目录创建train_anno_list.txt和val_anno_list.txt两个文本文件,并将annotations目录下的全部json文件路径按一定比例分别写入train_anno_list.txt和val_anno_list.txt,也可全部写入到train_anno_list.txt同时创建一个空的val_anno_list.txt文件,待上传零代码使用数据划分功能进行重新划分。train_anno_list.txt和val_anno_list.txt的具体填写格式如图所示:
 
 <center>
@@ -116,6 +118,7 @@ labelme images --labels label.txt --nodata --autosave --output annotations
 <img src='https://github.com/PaddlePaddle/PaddleX/assets/142379845/77eaf28a-4d4c-4a02-962a-5b25c7b04b99' width='600px'>
 </center>
 
+  &emsp;&emsp;
   b. 经过整理得到的最终目录结构如下:
 
 <center>
@@ -123,6 +126,7 @@ labelme images --labels label.txt --nodata --autosave --output annotations
 <img src='https://github.com/PaddlePaddle/PaddleX/assets/142379845/b970ce62-fbb9-4cea-b5c0-b2e9565a02f9' width='600px'>
 </center>
 
+  &emsp;&emsp;
   c. 将hemlet目录打包压缩为.tar或.zip格式压缩包即可得到安全帽检测标准labelme格式数据集
 ## 3. PaddleLabel 使用
 ### 3.1.1. 安装与运行

+ 5 - 6
docs/tutorials/data/annotation/SegAnnoTools.md

@@ -117,12 +117,11 @@ labelme images --nodata --autosave --output annotations
 
 9. 调整目录得到安全帽检测标准labelme格式数据集
 
-    a. 在数据集根目录 seg_datset 下载并执行[目录整理脚本](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/format_seg_labelme_dataset.py)。执行脚本后的 train_anno_list.txt 和 val_anno_list.txt 中具体内容如图所示:
-
-
-    ```
-    python format_seg_labelme_dataset.py
-    ```
+  &emsp;&emsp;
+  a. 在数据集根目录 seg_datset 下载并执行[目录整理脚本](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/format_seg_labelme_dataset.py)。执行脚本后的 train_anno_list.txt 和 val_anno_list.txt 中具体内容如图所示:
+  ```
+  python format_seg_labelme_dataset.py
+  ```
 
 <center>
 

+ 25 - 25
docs/tutorials/data/dataset_check.md

@@ -80,7 +80,7 @@ python main.py -c paddlex/configs/image_classification/PP-LCNet_x1_0.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
 
 
 ## 2.目标检测任务模块数据校验
@@ -160,7 +160,7 @@ python main.py -c paddlex/configs/object_detection/PicoDet-S.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
 
 ## 3.语义分割任务模块数据校验
 
@@ -239,7 +239,7 @@ python main.py -c paddlex/configs/semantic_segmentation/PP-LiteSeg-T.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
 
 ## 4. 实例分割任务模块数据校验
 
@@ -318,7 +318,7 @@ python main.py -c paddlex/configs/instance_segmentation/Mask-RT-DETR-L.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
 
 ## 5. 文本检测任务模块数据校验
 
@@ -374,7 +374,7 @@ python main.py -c paddlex/configs/text_detection/PP-OCRv4_mobile_det.yaml \
 - attributes.train_sample_paths:该数据集训练集样本可视化图片相对路径列表;
 - attributes.val_sample_paths:该数据集验证集样本可视化图片相对路径列表;
 
-另外,数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):
+另外,数据集校验还对数据集中所有图片的长宽分布情况进行了分析,并绘制了分布直方图(histogram.png):
 ![样本分布直方图](https://github.com/PaddlePaddle/PaddleX/assets/142379845/d47d8410-f8ac-4126-9565-c217528951e0)
 
 **注**:只有通过数据校验的数据才可以训练和评估。
@@ -395,7 +395,7 @@ python main.py -c paddlex/configs/text_detection/PP-OCRv4_mobile_det.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
 
 ## 6. 文本识别任务模块数据校验
 
@@ -451,7 +451,7 @@ python main.py -c paddlex/configs/text_recognition/PP-OCRv4_mobile_rec.yaml \
 - attributes.train_sample_paths:该数据集训练集样本可视化图片相对路径列表;
 - attributes.val_sample_paths:该数据集验证集样本可视化图片相对路径列表;
 
-另外,数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):
+另外,数据集校验还对数据集中所有字符长度占比的分布情况进行了分析,并绘制了分布直方图(histogram.png):
 ![样本分布直方图](https://github.com/PaddlePaddle/PaddleX/assets/142379845/2517ab81-e90f-4384-97f5-6f61785b161f)
 
 **注**:只有通过数据校验的数据才可以训练和评估。
@@ -472,7 +472,7 @@ python main.py -c paddlex/configs/text_recognition/PP-OCRv4_mobile_rec.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
 
 ## 7. 表格识别任务模块数据校验
 
@@ -496,7 +496,7 @@ python main.py -c paddlex/configs/table_recognition/SLANet.yaml \
     -o Global.dataset_dir=./dataset/table_rec_dataset_examples
 ```
 
-执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息。命令运行成功后会在log中打印出 `Check dataset passed !` 信息,同时相关产出会保存在当前目录的 `./output/check_dataset` 目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。校验结果文件保存在 `./output/check_dataset_result.json`,校验结果文件具体内容为
+执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息。命令运行成功后会在log中打印出 `Check dataset passed !` 信息。校验结果文件保存在 `./output/check_dataset_result.json`,校验结果文件具体内容为
 ```
 {
   "done_flag": true,
@@ -544,13 +544,13 @@ python main.py -c paddlex/configs/table_recognition/SLANet.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
 
 ## 8. 时序预测任务模块数据校验
 
 ### 8.1 数据准备
 
-您需要按照 PaddleX 支持的数据格式要求准备数据,关于数据标注,您可以参考[PaddleX 数据标注](./annotation/README.md),关于数据格式介绍,您可以参考[PaddleX 数据格式介绍](./dataset_format.md),此处我们准备了时序预测 Demo 数据供您使用。
+您需要按照 PaddleX 支持的数据格式要求准备数据,关于数据格式介绍,您可以参考[PaddleX 数据格式介绍](./dataset_format.md),此处我们准备了时序预测 Demo 数据供您使用。
 
 ```bash
 cd /path/to/paddlex
@@ -568,7 +568,7 @@ python main.py -c paddlex/configs/ts_forecast/DLinear.yaml \
     -o Global.dataset_dir=./dataset/ts_dataset_examples
 ```
 
-执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息。命令运行成功后会在log中打印出 `Check dataset passed !` 信息,同时相关产出会保存在当前目录的 `./output/check_dataset` 目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。校验结果文件保存在 `./output/check_dataset_result.json`,校验结果文件具体内容为
+执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息。命令运行成功后会在log中打印出 `Check dataset passed !` 信息,同时相关产出会保存在当前目录的 `./output/check_dataset` 目录下,产出目录中包括保存示例数据的 csv 文件。校验结果文件保存在 `./output/check_dataset_result.json`,校验结果文件具体内容为
 ```
 {
   "done_flag": true,
@@ -644,7 +644,7 @@ python main.py -c paddlex/configs/ts_forecast/DLinear.yaml \
   "analysis": {
     "histogram": ""
   },
-  "dataset_path": ".\/dataset\/ts_dataset_examples",
+  "dataset_path": "./dataset/ts_dataset_examples",
   "show_type": "csv",
   "dataset_type": "TSDataset"
 }
@@ -653,8 +653,8 @@ python main.py -c paddlex/configs/ts_forecast/DLinear.yaml \
 
 - attributes.train_samples:该数据集训练集样本数量为 12194;
 - attributes.val_samples:该数据集验证集样本数量为 3484;
-- attributes.train_table:该数据集训练集样本示例数据表格信息;
-- attributes.val_table:该数据集验证集样本示例数据表格信息;
+- attributes.train_table:该数据集训练集样本示例数据前10行信息;
+- attributes.val_table:该数据集训练集样本示例数据前10行信息;
 
 **注**:只有通过数据校验的数据才可以训练和评估。
 
@@ -674,13 +674,13 @@ python main.py -c paddlex/configs/ts_forecast/DLinear.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
 
 ## 9. 时序异常检测任务模块数据校验
 
 ### 9.1 数据准备
 
-您需要按照 PaddleX 支持的数据格式要求准备数据,关于数据标注,您可以参考[PaddleX 数据标注](./annotation/README.md),关于数据格式介绍,您可以参考[PaddleX 数据格式介绍](./dataset_format.md),此处我们准备了时序异常检测 Demo 数据供您使用。
+您需要按照 PaddleX 支持的数据格式要求准备数据,关于数据格式介绍,您可以参考[PaddleX 数据格式介绍](./dataset_format.md),此处我们准备了时序异常检测 Demo 数据供您使用。
 
 ```bash
 cd /path/to/paddlex
@@ -698,7 +698,7 @@ python main.py -c paddlex/configs/ts_anomaly_detection/DLinear_ad.yaml \
     -o Global.dataset_dir=./dataset/ts_anomaly_examples
 ```
 
-执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息。命令运行成功后会在log中打印出 `Check dataset passed !` 信息,同时相关产出会保存在当前目录的 `./output/check_dataset` 目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。校验结果文件保存在 `./output/check_dataset_result.json`,校验结果文件具体内容为
+执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息。命令运行成功后会在log中打印出 `Check dataset passed !` 信息,同时相关产出会保存在当前目录的 `./output/check_dataset` 目录下,产出目录中包括保存示例数据的 csv 文件。校验结果文件保存在 `./output/check_dataset_result.json`,校验结果文件具体内容为
 ```
 {
   "done_flag": true,
@@ -751,8 +751,8 @@ python main.py -c paddlex/configs/ts_anomaly_detection/DLinear_ad.yaml \
 
 - attributes.train_samples:该数据集训练集样本数量为 22032;
 - attributes.val_samples:该数据集验证集样本数量为 198290;
-- attributes.train_table:该数据集训练集样本示例数据表格信息;
-- attributes.val_table:该数据集验证集样本示例数据表格信息;
+- attributes.train_table:该数据集训练集样本示例数据前10行信息;
+- attributes.val_table:该数据集训练集样本示例数据前10行信息;
 
 **注**:只有通过数据校验的数据才可以训练和评估。
 
@@ -772,13 +772,13 @@ python main.py -c paddlex/configs/ts_anomaly_detection/DLinear_ad.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
 
 ## 10. 时序分类任务模块数据校验
 
 ### 10.1 数据准备
 
-您需要按照 PaddleX 支持的数据格式要求准备数据,关于数据标注,您可以参考[PaddleX 数据标注](./annotation/README.md),关于数据格式介绍,您可以参考[PaddleX 数据格式介绍](./dataset_format.md),此处我们准备了时序分类 Demo 数据供您使用。
+您需要按照 PaddleX 支持的数据格式要求准备数据,关于数据格式介绍,您可以参考[PaddleX 数据格式介绍](./dataset_format.md),此处我们准备了时序分类 Demo 数据供您使用。
 
 ```bash
 cd /path/to/paddlex
@@ -857,8 +857,8 @@ python main.py -c paddlex/configs/ts_classify_examples/DLinear_ad.yaml \
 
 - attributes.train_samples:该数据集训练集样本数量为 82620;
 - attributes.val_samples:该数据集验证集样本数量为 83025;
-- attributes.train_table:该数据集训练集样本示例数据表格信息;
-- attributes.val_table:该数据集验证集样本示例数据表格信息;
+- attributes.train_table:该数据集训练集样本示例数据前10行信息;
+- attributes.val_table:该数据集训练集样本示例数据前10行信息;
 
 
 另外,数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):
@@ -882,4 +882,4 @@ python main.py -c paddlex/configs/ts_classify_examples/DLinear_ad.yaml \
         * `train_percent`: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和 `val_percent` 值加和为100;
         * `val_percent`: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和 `train_percent` 值加和为100;
 
-数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。
+数据转换和数据划分支持同时开启,对于数据划分原有标注文件会被在原路径下重命名为 `xxx.bak`,以上参数同样支持通过追加命令行参数的方式进行设置,例如重新划分数据集并设置训练集与验证集比例:`-o CheckDataset.split.enable=True -o CheckDataset.split.train_percent=80 -o CheckDataset.split.val_percent=20`。

+ 12 - 12
docs/tutorials/data/dataset_format.md

@@ -4,7 +4,7 @@
 
 因此,PaddleX 针对常见 AI 任务,给出通用简明的数据集规范说明,涵盖数据集名称、组织结构、标注格式。
 
-**请您在下面找到特定 AI 任务,参考说明准备数据,进而可以通过 PaddleX 的数据校验,最后完成全流程任务开发。**
+**请您在下面找到特定 AI 任务,参考说明准备数据, 通过PaddleX 进行数据校验,并完成全流程任务的开发。**
 
 请注意:
 
@@ -12,7 +12,7 @@
 
 ## 1. 图像分类任务模块
 
-PaddleX 针对图像分类任务定义的数据集,名称是 **ClsDataset**,组织结构和标注格式如下。 
+PaddleX 针对图像分类任务定义的数据集,名称是 **ClsDataset**,组织结构和标注格式如下。
 
 ```plain
 dataset_dir    # 数据集根目录,目录名称可以改变
@@ -27,13 +27,13 @@ dataset_dir    # 数据集根目录,目录名称可以改变
 如果您已有数据集且数据集格式为如下格式,但是没有标注文件,可以使用[脚本](https://paddleclas.bj.bcebos.com/tools/create_cls_trainval_lists.py)将已有的数据集生成标注文件。
 
 ```plain
-dataset_dir          # 数据集根目录,目录名称可以改变      
+dataset_dir          # 数据集根目录,目录名称可以改变  
 ├── images           # 图像的保存目录,目录名称可以改变
    ├── train         # 训练集目录,目录名称可以改变
       ├── class0     # 类名字,最好是有意义的名字,否则生成的类别映射文件label.txt无意义
          ├── xxx.jpg # 图片,此处支持层级嵌套
          ├── xxx.jpg # 图片,此处支持层级嵌套
-         ...      
+         ...  
       ├── class1     # 类名字,最好是有意义的名字,否则生成的类别映射文件label.txt无意义
       ...
    ├── val           # 验证集目录,目录名称可以改变
@@ -74,7 +74,7 @@ dataset_dir                  # 数据集根目录,目录名称可以改变
 标注文件采用 COCO 格式。请大家参考上述规范准备数据,此外可以参考:[示例数据集](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/det_coco_examples.tar) 和 [目标检测数据准备](https://github.com/PaddlePaddle/PaddleDetection/blob/develop/docs/tutorials/data/PrepareDetDataSet.md)。
 
 
-当大家使用的是 PaddleX 2.x 版本时的目标检测数据集时,请参考[数据格式转换](),将 VOC 格式数据集转换为 COCO 数据集。
+当大家使用的是 PaddleX 2.x 版本时的目标检测数据集时,请参考[数据校验](./dataset_check.md)中对应的格式转换部分,将 VOC 格式数据集转换为 COCO 数据集。
 
 ## 3. 实例分割任务模块
 
@@ -91,11 +91,11 @@ dataset_dir                  # 数据集根目录,目录名称可以改变
 标注文件采用 COCO 格式。请大家参考上述规范准备数据,此外可以参考:[示例数据集](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/det_coco_examples.tar) 和 [目标检测数据准备](https://github.com/PaddlePaddle/PaddleDetection/blob/develop/docs/tutorials/data/PrepareDetDataSet.md)。
 
 
-当大家使用的是 PaddleX 2.x 版本时的实例分割数据集时,请参考[数据格式转换](),将 VOC 格式数据集转换为 COCO 数据集。
+当大家使用的是 PaddleX 2.x 版本的实例分割数据集时,请参考[数据校验](./dataset_check.md)中对应的格式转换部分,将 VOC 格式数据集转换为 COCO 数据集。
 
 **注:格式标注要求**
 
-- 实例分割数据要求采用 COCO 数据格式标注出数据集中每张图像各个目标区域的像素边界和类别,采用 [x1,y1,x2,y2,...,xn,yn] 表示物体的多边形边界(segmentation)。其中,(xn,yn) 多边形各个角点坐标。标注信息存放到 annotations 目录下的 json 文件中,训练集 instance_train.json 和验证集 instance_val.json 分开存放。
+- 实例分割数据要求采用 COCO 数据格式标注出数据集中每张图像各个目标区域的像素边界和类别,采用 [x1,y1,x2,y2,...,xn,yn] 表示物体的多边形边界(segmentation)。其中,(xn,yn) 表示多边形各个角点坐标。标注信息存放到 annotations 目录下的 json 文件中,训练集 instance_train.json 和验证集 instance_val.json 分开存放。
 
 - 如果你有一批未标注数据,我们推荐使用 LabelMe 进行数据标注。对于使用 LabelMe 标注的数据集,产线支持进行数据格式转换,请选择对应的格式后,点击「开始校验」按钮。
 
@@ -139,11 +139,11 @@ dataset_dir     # 数据集根目录,目录名称可以改变
 
 标注文件的每行内容是一张图像的路径和一个组成元素是字典的列表,路径和列表必须使用制表符’\t‘进行分隔,不可使用空格进行分隔。
 
-对于组成元素是字典的列表,字典中 points 表示文本框的四个顶点的坐标(x, y),从左上角的顶点开始顺时针排;字典中`transcription`表示该文本框的文字,若`transcription 的`内容为“###”时,表示该文本框无效,不参与训练。
+对于组成元素是字典的列表,字典中 points 表示文本框的四个顶点的坐标(x, y),从左上角的顶点开始顺时针排;字典中`transcription`表示该文本框的文字,若`transcription 的`内容为“###”时,表示该文本框无效,不参与训练。
 
 如果您使用了[PPOCRLabel](https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.7/PPOCRLabel/README_ch.md)标注数据,只需要在完成数据集划分后将文字检测(det)目录中的`det_gt_train.txt`改名为`train.txt`、`det_gt_test.txt`改名为`val.txt`即可。
 
-请大家参考上述规范准备数据,此外可以参考:[示例数据集](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ocr_det_dataset_examples.tar) 和 [文本检测数据准备](https://github.com/PaddlePaddle/PaddleOCR/blob/dygraph/doc/doc_ch/dataset/ocr_datasets.md)。
+请大家参考上述规范准备数据,此外可以参考:[示例数据集](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ocr_det_dataset_examples.tar) 和 [文本检测数据准备](https://github.com/PaddlePaddle/PaddleOCR/blob/main/doc/doc_ch/dataset/ocr_datasets.md)。
 
 ## 6. 文本识别任务模块
 
@@ -201,7 +201,7 @@ dataset_dir    # 数据集根目录,目录名称可以改变
 PaddleX 针对长时序预测任务定义的数据集,名称是**TSDataset**,组织结构和标注格式如下。
 
 ```plain
-dataset_dir         # 数据集根目录,目录名称可以改变     
+dataset_dir         # 数据集根目录,目录名称可以改变  
 ├── train.csv       # 训练集标注文件,文件名称不可改变。表头是每列的列名称,每一行是某一个时间点采集的数据。
 ├── val.csv         # 验证集标注文件,文件名称不可改变。表头是每列的列名称,每一行是某一个时间点采集的数据。
 └── test.csv        # 测试集标注文件(可选),文件名称不可改变。表头是每列的列名称,每一行是某一个时间点采集的数据。
@@ -221,7 +221,7 @@ dataset_dir     # 数据集根目录,目录名称可以改变
 └── test.csv    # 测试集文件,文件名称不可改变
 ```
 
-时序异常检测和多模型融合时序异常检测要求的数据集格式,支持 xls、xlsx 格式的数据集转换为 csv 格式。你可以参考:[示例数据集](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ts_anomaly_examples.tar)。
+时序异常检测和多模型融合时序异常检测要求的数据集格式为 csv 格式,支持 xls、xlsx 格式的数据集转换为 csv 格式。你可以参考:[示例数据集](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ts_anomaly_examples.tar)。
 
 ## 10. 时序分类任务模块
 
@@ -234,4 +234,4 @@ dataset_dir     # 数据集根目录,目录名称可以改变
 └── test.csv    # 测试集文件,文件名称不可改变,群组编号名称固定为"group_id",标签变量(可不包含)名称固定为"label"
 ```
 
-时序分类要求的数据集格式,支持 xls、xlsx 格式的数据集转换为 csv 格式。你可以参考:[示例数据集](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ts_classify_examples.tar)。
+时序分类时序分类要求的数据集格式为 csv 格式,支持 xls、xlsx 格式的数据集转换为 csv 格式。你可以参考:[示例数据集](https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ts_classify_examples.tar)。

+ 30 - 56
docs/tutorials/models/model_inference_api.md

@@ -1,6 +1,6 @@
 # PaddleX 单模型推理 Python API 文档
 
-PaddleX 预置了丰富的模型,并提供了 Python API 调用接口,可以方便的集成到其他项目中,或是实现多模型串联,自定义产线
+PaddleX 预置了丰富的模型,并提供了 Python API,可以方便地集成到其他项目中
 
 ## 1. 安装 PaddleX
 
@@ -26,78 +26,52 @@ model = create_model(model_name=model_name, kernel_option=kernel_option)
 result = model.predict({'input_path': "https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_image_classification_001.jpg"})
 ```
 
-具体来说,需要简单几步:1. 实例化 PaddleInferenceOption 进行推理相关设置;2. 调用 create_model 实例化预测模型对象;3. 调用预测模型对象的 predict 方法进行推理预测。
+具体来说,需要简单几步:1. 实例化 `PaddleInferenceOption` 进行推理相关设置;2. 调用 `create_model` 实例化预测模型对象;3. 调用预测模型对象的 `predict` 方法进行推理预测。
 
-#### 1. 实例化 PaddleInferenceOption 进行推理相关设置
+#### 1. 实例化 `PaddleInferenceOption` 进行推理相关设置
 
-* set_deivce:设置推理设备;
+* `set_deivce`:设置推理设备;
     * 参数:
-        * device_setting:str 类型,推理设备类型及卡号,设备类型支持可选 'gpu', 'cpu', 'npu', 'xpu', 'mlu',当使用加速卡时,支持指定卡号,如使用 0 号 gpu:'gpu:0',默认为 'gpu:0';
-    * 返回值:None
+        * `device_setting`:str 类型,推理设备类型及卡号,设备类型支持可选 'gpu', 'cpu', 'npu', 'xpu', 'mlu',当使用加速卡时,支持指定卡号,如使用 0 号 gpu:'gpu:0',默认为 'gpu:0';
+    * 返回值:`None`。
 
-* set_run_mode:设置推理后端;
+* `set_run_mode`:设置推理后端;
     * 参数:
-        * run_mode:str 类型,推理后端,支持可选 'paddle','trt_fp32','trt_fp16','trt_int8','mkldnn','mkldnn_bf16',其中 'mkldnn' 仅当推理设备使用 CPU 时可选,默认为 'paddle';
-    * 返回值:None
+        * run_mode:str 类型,推理后端,支持可选 'paddle','trt_fp32','trt_fp16','trt_int8','mkldnn','mkldnn_bf16',其中 'mkldnn' 仅当推理设备使用 cpu 时可选,默认为 'paddle';
+    * 返回值:`None`。
 
-* set_cpu_threads:设置 CPU 加速库计算线程数,仅当推理设备使用 CPU 时候有效;
+* `set_cpu_threads`:设置 cpu 加速库计算线程数,仅当推理设备使用 cpu 时有效;
     * 参数:
-        * cpu_threads:int 类型,CPU 推理时加速库计算线程数;
-    * 返回值:None
+        * `cpu_threads`:int 类型,cpu 推理时加速库计算线程数;
+    * 返回值:`None`。
 
-* get_support_run_mode:获取支持的推理后端设置;
+* `get_support_run_mode`:获取支持的推理后端设置;
     * 参数:无;
-    * 返回值:list 类型,可选的推理后端设置
+    * 返回值:list 类型,可选的推理后端设置
 
-* get_support_device:获取支持的运行设备类型
+* `get_support_device`:获取支持的运行设备类型
     * 参数:无;
-    * 返回值:list 类型,可选的设备类型
+    * 返回值:list 类型,可选的设备类型
 
-* get_device:获取当前设置的设备;
+* `get_device`:获取当前设置的设备;
     * 参数:无;
-    * 返回值:str 类型
+    * 返回值:str 类型
 
-<!--
-* set_batch_size:设置推理批大小;
-    * 参数:
-        * batch_size:int 类型,推理的批大小;
-    * 返回值:None
-
-* set_min_subgraph_size:设置 TensorRT 后端的最小子图大小;
-    * 参数:
-        * min_subgraph_size:TensorRT 后端的最小子图大小,仅当使用 trt_fp32、trt_fp16、trt_int8 后端时有效;
-    * 返回值:None
+#### 2. 调用 `create_model` 实例化预测模型对象
 
-* set_shape_info_filename:
+* `create_model`:实例化预测模型对象(`BasePredictor`);
     * 参数:
-        * shape_info_filename:
-    * 返回值:None
+        * `model_name`:str 类型,模型名;
+        * `kernel_option`:`PaddleInferenceOption` 类型,表示模型预测相关设置;
+    * 返回值:`BasePredictor` 类型。
 
-* set_trt_calib_mode:
-    * 参数:
-        * trt_calib_mode
-    * 返回值:None
+#### 3. 调用预测模型对象的 `predict` 方法进行推理预测
 
-* set_trt_use_static:
+* `predict`:使用定义的预测模型,对输入数据进行预测;
     * 参数:
-        * trt_use_static
-    * 返回值:None -->
-
-#### 2. 调用 create_model 实例化预测模型对象
+        * `input`:dict 类型,传入待预测数据,字典的 key 可通过 `get_input_keys` 方法获得;
+    * 返回值:dict 类型,包括待预测结果和预测数据等在内的数据,如 `{'input_path': 'a/b/c.jpg', 'image': ndarray(), 'cls_pred': [0.026 0.974], 'cls_result': [{'class_ids': [2, 1]}]}`,具体内容与模型及任务相关。
 
-* create_model:实例化预测模型对象(BasePredictor)
-    * 参数:
-        * model_name:str 类型,模型名
-        * kernel_option:PaddleInferenceOption 类型,表示模型预测相关设置
-    * 返回值:BasePredictor 类型
-
-#### 3. 调用预测模型对象的 predict 方法进行推理预测
-
-* predict:使用定义的预测模型,对输入数据进行预测;
-    * 参数:
-        * input:dict 类型,传入待预测数据,字典的 key 可通过 get_input_keys 方法获得;
-    * 返回值:dict 类型,包括待预测结果和预测数据等在内的数据,如 `{'input_path': 'a/b/c.jpg', 'image': ndarray(), 'cls_pred': [0.026 0.974], 'cls_result': [{'class_ids': [2, 1]}]}`,具体内容与模型及任务相关;
-
-* get_input_keys:
-    * 参数:无
-    * 返回值:list 类型,表示 predict 方法的字典参数 input 所需指定的 key,如 `['path', 'size']` 表示字典参数 input 必须包含 `'path'` 和 `'size'` 两个 key,如 `[['input_path', 'size'], ['input_data']]` 表示字典参数 input 必须包含 `'input_path'` 和 `'size'` 两个 key,**或是**包含 `'input_data'`。
+* `get_input_keys`:获取 `predict` 方法的 dict 类型形参 `input` 的 key;
+    * 参数:无;
+    * 返回值:list 类型,表示 `predict` 方法的字典参数 `input` 所需指定的 key,如 `['path', 'size']` 表示字典参数 `input` 必须包含 `'path'` 和 `'size'` 两个 key,如 `[['input_path', 'size'], ['input_data']]` 表示字典参数 `input` 必须包含 `'input_path'` 和 `'size'` 两个 key,**或是**包含 `'input_data'`。

+ 2 - 2
docs/tutorials/models/support_mlu_model_list.md

@@ -14,8 +14,8 @@
 | :--- | :---: |
 | PP-LCNet_x0_25 | [PP-LCNet_x0_25.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_25.yaml)|
 | PP-LCNet_x0_35 | [PP-LCNet_x0_35.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_35.yaml)|
-| PP-LCNet_x0_5 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/ResNet50.yaml)|
-| PP-LCNet_x0_75 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/ResNet101.yaml)|
+| PP-LCNet_x0_5 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_5.yaml)|
+| PP-LCNet_x0_75 | [PP-LCNet_x0_75.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_75.yaml)|
 | PP-LCNet_x1_0 | [PP-LCNet_x1_0.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x1_0.yaml)|
 | PP-LCNet_x1_5 | [PP-LCNet_x1_5.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x1_5.yaml)|
 | PP-LCNet_x2_0 | [PP-LCNet_x2_0.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x2_0.yaml)|

+ 2 - 2
docs/tutorials/models/support_model_list.md

@@ -14,8 +14,8 @@
 | :--- | :---: |
 | PP-LCNet_x0_25 | [PP-LCNet_x0_25.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_25.yaml)|
 | PP-LCNet_x0_35 | [PP-LCNet_x0_35.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_35.yaml)|
-| PP-LCNet_x0_5 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/ResNet50.yaml)|
-| PP-LCNet_x0_75 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/ResNet101.yaml)|
+| PP-LCNet_x0_5 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_5.yaml)|
+| PP-LCNet_x0_75 | [PP-LCNet_x0_75.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_75.yaml)|
 | PP-LCNet_x1_0 | [PP-LCNet_x1_0.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x1_0.yaml)|
 | PP-LCNet_x1_5 | [PP-LCNet_x1_5.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x1_5.yaml)|
 | PP-LCNet_x2_0 | [PP-LCNet_x2_0.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x2_0.yaml)|

+ 2 - 2
docs/tutorials/models/support_npu_model_list.md

@@ -14,8 +14,8 @@
 | :--- | :---: |
 | PP-LCNet_x0_25 | [PP-LCNet_x0_25.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_25.yaml)|
 | PP-LCNet_x0_35 | [PP-LCNet_x0_35.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_35.yaml)|
-| PP-LCNet_x0_5 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/ResNet50.yaml)|
-| PP-LCNet_x0_75 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/ResNet101.yaml)|
+| PP-LCNet_x0_5 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_5.yaml)|
+| PP-LCNet_x0_75 | [PP-LCNet_x0_75.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_75.yaml)|
 | PP-LCNet_x1_0 | [PP-LCNet_x1_0.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x1_0.yaml)|
 | PP-LCNet_x1_5 | [PP-LCNet_x1_5.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x1_5.yaml)|
 | PP-LCNet_x2_0 | [PP-LCNet_x2_0.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x2_0.yaml)|

+ 2 - 2
docs/tutorials/models/support_xpu_model_list.md

@@ -14,8 +14,8 @@
 | :--- | :---: |
 | PP-LCNet_x0_25 | [PP-LCNet_x0_25.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_25.yaml)|
 | PP-LCNet_x0_35 | [PP-LCNet_x0_35.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_35.yaml)|
-| PP-LCNet_x0_5 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/ResNet50.yaml)|
-| PP-LCNet_x0_75 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/ResNet101.yaml)|
+| PP-LCNet_x0_5 | [PP-LCNet_x0_5.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_5.yaml)|
+| PP-LCNet_x0_75 | [PP-LCNet_x0_75.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x0_75.yaml)|
 | PP-LCNet_x1_0 | [PP-LCNet_x1_0.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x1_0.yaml)|
 | PP-LCNet_x1_5 | [PP-LCNet_x1_5.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x1_5.yaml)|
 | PP-LCNet_x2_0 | [PP-LCNet_x2_0.yaml](../../../paddlex/configs/image_classification/PP-LCNet_x2_0.yaml)|

+ 111 - 0
docs/tutorials/pipelines/model_select.md

@@ -0,0 +1,111 @@
+# PaddleX 模型选择
+
+PaddleX 内置了多条产线,每条产线都包含了若干模型,具体使用哪些模型,您可以根据下边的 benchmark 数据来选择。如您更考虑模型精度,请选择精度较高的模型,如您更考虑模型推理速度,请选择推理速度较快的模型,如您更考虑模型存储大小,请选择存储大小较小的模型。
+
+以下为每条产线部分精选模型 benchmark 数据,全量模型 benchmark 数据持续更新中。
+
+
+## 1.通用图像分类
+
+| 模型列表        | Top1 Acc(%) | GPU 推理耗时(ms) | CPU 推理耗时(ms) | 模型存储大小(M) |
+| --------------- | ------ | ---------------- | ---------------- | --------------- |
+| PP-HGNetV2_B6   | 86.30  | 10.46            | 240.18           | 288             |
+| CLIP_vit_base_patch16_224 | 85.39 | 12.03   | 234.85           | 331             |
+| PP-HGNetV2_B4   | 83.57  | 2.45             | 38.10            | 76              |
+| SwinTransformer_base_patch4_window7_224  | 83.37 | 12.35 | -   | 342             |
+| PP-HGNet_small  | 81.51  | 4.24             | 108.21           | 94              |
+| PP-HGNetV2_B0   | 77.77  | 0.68             | 6.41             | 23              |
+| ResNet50        | 76.50  | 3.12             | 50.90            | 98              |
+| PP-LCNet_x1_0   | 71.32  | 1.01             | 3.39             | 7               |
+| MobileNetV3_small_x1_0 | 68.24  | 1.09      | 3.65             | 12              |
+
+> **注:以上精度指标为 <a href="https://www.image-net.org/index.php" target="_blank">ImageNet-1k</a> 验证集 Top1 Acc。**
+
+## 2.通用目标检测
+
+| 模型列表         | mAP(%) | GPU 推理耗时(ms) | CPU 推理耗时(ms) | 模型存储大小(M) |
+| --------------- | ------ | ---------------- | ---------------- | --------------- |
+| RT-DETR-H       | 56.3   | 100.65           | 8451.92          | 471             |
+| RT-DETR-L       | 53.0   | 27.89            | 841.00           | 125             |
+| PP-YOLOE_plus-L | 52.9   | 29.67            | 700.97           | 200             |
+| PP-YOLOE_plus-S | 43.7   | 8.11             | 137.23           | 31              |
+| PicoDet-L       | 42.6   | 10.09            | 129.32           | 23              |
+| PicoDet-S       | 29.1   | 3.17             | 13.36            | 5               |
+
+> **注:以上精度指标为 <a href="https://cocodataset.org/#home" target="_blank">COCO2017</a> 验证集 mAP(0.5:0.95)。**
+
+## 3.通用语义分割
+
+
+| 模型列表          | mIoU (%) | GPU 推理耗时(ms) | CPU 推理耗时(ms) | 模型存储大小 (M)|
+| ---------------- | -------  | --------------- | -------------- | ------------- |
+| OCRNet_HRNet-W48 | 82.15    | 87.97           | 2180.76        | 270           |
+| PP-LiteSeg-T     | 77.04    | 5.98            | 140.02         | 31            |
+
+> **注:以上精度指标测量自[Cityscapes](https://www.cityscapes-dataset.com/)数据集。**
+
+## 4.通用实例分割
+
+
+| 模型列表        | mAP(%) | GPU 推理耗时(ms) | CPU 推理耗时(ms) | 模型存储大小(M) |
+| -------------- | ------ | --------------- | -------------- | ------------- |
+| Mask-RT-DETR-H | 48.8   | -               | -              | 486           |
+| Mask-RT-DETR-L | 45.7   | -               | -              | 124           |
+
+> **注:以上精度指标为 <a href="https://cocodataset.org/#home" target="_blank">COCO2017</a> 验证集 mAP(0.5:0.95)。**
+
+## 5.通用OCR
+
+
+| 模型            | 检测 Hmean(%) | 识别 Avg Accuracy(%) | GPU 推理耗时(ms) | CPU 推理耗时(ms) | 模型存储大小(M) |
+| --------------- | ------------ | ------------------- | --------------- | --------------- | ------------- |
+| PP-OCRv4-server | 82.69        | 79.20               | 22.20346        | 2662.158        | 198           |
+| PP-OCRv4-mobile | 77.79        | 78.20               | 2.719474        | 79.1097         | 15            |
+
+> **注:以上精度指标的评估集是 PaddleOCR 自建的中文数据集,覆盖街景、网图、文档、手写多个场景,其中文本识别包含 1.1w 张图片,检测包含 500 张图片。**
+
+## 6.通用表格识别
+
+| 模型   | 精度(%) | GPU 推理耗时(ms) | CPU 推理耗时(ms) | 模型存储大小(M) |
+| ------ | ------ | -------------- | --------------- | ------------- |
+| SLANet | 76.31  | 791.73         | 379.87          | 9.3           |
+
+> **注:以上精度指标测量自PubtabNet英文表格识别数据集。**
+
+## 7.时序预测
+
+
+| 模型列表         | mse    | mae    | 模型存储大小(M) |
+| ----------------| ------ | ------ | ------------- |
+| DLinear          | 0.386  | 0.445  | 80k           |
+| Nonstationary    | 0.385  | 0.463  | 61M           |
+| PatchTST         | 0.291  | 0.380  | 2.2M          |
+| TiDE             | 0.376  | 0.441  | 35M           |
+| TimesNet         | 0.284  | 0.386  | 5.2M          |
+
+> **注:以上精度指标测量自 <a href="https://archive.ics.uci.edu/dataset/321/electricityloaddiagrams20112014">ECL</a> 数据集。**
+
+## 8.时序异常检测
+
+
+| 模型列表          | precision | recall | f1_score | 模型存储大小(M) |
+| ---------------- | --------- | ------ | -------- | ------------- |
+| DLinear_ad       |  0.904    | 0.891  |  0.897   |   0.9M        |
+| Nonstationary_ad |  0.901    | 0.938  |  0.918   |  19.1MB       |
+| AutoEncoder_ad   |  0.897    | 0.860  |  0.876   |   0.4M        |
+| PatchTST_ad      |  0.900    | 0.925  |  0.913   |   2.1M        |
+| TimesNet_ad      |  0.899    | 0.935  |  0.917   |   5.4M        |
+
+> **注:以上精度指标测量自 <a href="https://itrust.sutd.edu.sg/itrust-labs_datasets/dataset_info">SWAT</a> 数据集。**
+
+## 9.时序分类
+
+
+| 模型列表      | acc(%) | 模型存储大小(M) |
+| ------------ | ------ | ------------- |
+| TimesNet_cls | 67.9   |   5.3M        |
+
+> **注:以上精度指标测量自 <a href="https://www.timeseriesclassification.com/index.php">UEA/FaceDetection</a> 数据集。**
+
+
+ **注**:以上所有模型 GPU 推理耗时基于 NVIDIA Tesla T4 机器,精度类型为 FP32, CPU 推理速度基于 Intel(R) Xeon(R) Gold 5117 CPU @ 2.00GHz,线程数为8,精度类型为 FP32。

+ 25 - 0
docs/tutorials/pipelines/pipeline_develop.md

@@ -0,0 +1,25 @@
+# PaddleX 模型产线开发流程
+
+PaddleX 提供了丰富的模型产线,模型产线由一个或多个模型组合实现,每个模型产线都能够解决特定的场景任务问题。PaddleX 所提供的模型产线均支持在线体验,如果效果不及预期,也同样支持使用私有数据微调模型,并且 PaddleX 提供了 Python API,方便将产线集成到个人项目中。具体步骤如下:
+
+1. 【**选择产线**】:了解 PaddleX 支持的模型产线[模型产线列表](./support_pipeline_list.md),根据场景任务选择对应的产线;
+2. 【**在线体验**】点击对应产线的“星河社区体验地址”,前往[AI Studio 星河社区](https://aistudio.baidu.com/pipeline/mine)进行在线体验;
+3. 【**选择模型**】(可选)对产线中效果不及预期的模块进行微调,首先根据模块参考文档[模型选择](./model_select.md)选择可替换的模型;
+4. 【**模型微调**】(可选)选择好对应的模型后,即可进行模型训练,具体参考[模型训练、评估和推理](../base/README.md);
+5. 【**产线测试**】(可选)将产线中的模型替换为微调后的模型进行测试,具体参考[模型产线开发工具推理预测](./pipeline_inference_tools.md);
+6. 【**开发集成/部署**】使用 PaddleX Python API,将模型产线集成到个人项目中,具体参考[模型产线推理 Python API 文档](./pipeline_inference_api.md)。
+
+**PaddleX 模型产线开发流程图**
+
+```mermaid
+graph LR
+    select_pipeline(选择产线) --> online_experience[在线体验]
+    online_experience --> online_ok{效果满意?}
+    online_ok --不满意--> select_model[选择模型]
+    select_model --> model_finetune[模型微调]
+    online_ok --满意--> development_integration(开发集成/部署)
+    model_finetune --> pipeline_test[产线测试]
+    pipeline_test --> test_ok{效果满意?}
+    test_ok --不满意--> select_model
+    test_ok --满意--> development_integration
+```

+ 25 - 25
docs/tutorials/pipelines/pipeline_inference_api.md

@@ -1,6 +1,6 @@
-# PaddleX 模型产线 Python API 文档
+# PaddleX 模型产线推理 Python API 文档
 
-PaddleX 提供了多个实用的模型产线,模型产线由一个或多个模型组合而成,面临,能够直接落地应用
+PaddleX 提供了多个实用的模型产线,模型产线是由一个或多个模型组合而成的系统,可直接解决场景任务的问题,如图像分类任务、OCR(文本检测+文本识别)任务。
 
 ## 1. 安装 PaddleX
 
@@ -22,37 +22,37 @@ result = pipeline.predict(
 print(result["cls_result"])
 ```  
 
-如上代码所示,具体来说需要简单几步:1. 实例化 PaddleInferenceOption 进行推理相关设置;2. 实例化模型产线对象;3. 调用模型产线对象的 predict 方法进行推理预测。
+如上代码所示,具体来说需要简单几步:1. 实例化 `PaddleInferenceOption` 进行推理相关设置;2. 实例化模型产线对象;3. 调用模型产线对象的 `predict` 方法进行推理预测。
 
-#### 1. 实例化 PaddleInferenceOption 进行推理相关设置
+#### 1. 实例化 `PaddleInferenceOption` 进行推理相关设置
 
 
-* set_deivce:设置推理设备;
+* `set_deivce`:设置推理设备;
     * 参数:
-        * device_setting:str 类型,推理设备类型及卡号,设备类型支持可选 'gpu', 'cpu', 'npu', 'xpu', 'mlu',当使用加速卡时,支持指定卡号,如使用 0 号 gpu:'gpu:0',默认为 'gpu:0';
-    * 返回值:None
+        * `device_setting`:str 类型,推理设备类型及卡号,设备类型支持可选 'gpu', 'cpu', 'npu', 'xpu', 'mlu',当使用加速卡时,支持指定卡号,如使用 0 号 gpu:'gpu:0',默认为 'gpu:0';
+    * 返回值:None
 
-* set_run_mode:设置推理后端;
+* `set_run_mode`:设置推理后端;
     * 参数:
-        * run_mode:str 类型,推理后端,支持可选 'paddle','trt_fp32','trt_fp16','trt_int8','mkldnn','mkldnn_bf16',其中 'mkldnn' 仅当推理设备使用 CPU 时可选,默认为 'paddle';
-    * 返回值:None
+        * `run_mode`:str 类型,推理后端,支持可选 'paddle','trt_fp32','trt_fp16','trt_int8','mkldnn','mkldnn_bf16',其中 'mkldnn' 仅当推理设备使用 cpu 时可选,默认为 'paddle';
+    * 返回值:None
 
-* set_cpu_threads:设置 CPU 加速库计算线程数,仅当推理设备使用 CPU 时候有效;
+* `set_cpu_threads`:设置 cpu 加速库计算线程数,仅当推理设备使用 cpu 时有效;
     * 参数:
-        * cpu_threads:int 类型,CPU 推理时加速库计算线程数;
-    * 返回值:None
+        * `cpu_threads`:int 类型,cpu 推理时加速库计算线程数;
+    * 返回值:None
 
-* get_support_run_mode:获取支持的推理后端设置;
+* `get_support_run_mode`:获取支持的推理后端设置;
     * 参数:无;
-    * 返回值:list 类型,可选的推理后端设置
+    * 返回值:list 类型,可选的推理后端设置
 
-* get_support_device:获取支持的运行设备类型
+* `get_support_device`:获取支持的运行设备类型
     * 参数:无;
-    * 返回值:list 类型,可选的设备类型
+    * 返回值:list 类型,可选的设备类型
 
-* get_device:获取当前设置的设备;
+* `get_device`:获取当前设置的设备;
     * 参数:无;
-    * 返回值:str 类型
+    * 返回值:str 类型
 
 #### 2. 实例化模型产线对象
 
@@ -60,11 +60,11 @@ print(result["cls_result"])
 
 #### 3. 调用预测模型对象的 predict 方法进行推理预测
 
-* predict:使用定义的预测模型,对输入数据进行预测;
+* `predict`:使用定义的预测模型,对输入数据进行预测;
     * 参数:
-        * input:dict 类型,传入待预测数据,字典的 key 可通过 get_input_keys 方法获得;
-    * 返回值:dict 类型,包括待预测结果和预测数据等在内的数据,如 `{'input_path': 'a/b/c.jpg', 'image': ndarray(), 'cls_pred': [0.026 0.974], 'cls_result': [{'class_ids': [2, 1]}]}`,具体内容与模型及任务相关
+        * `input`:dict 类型,传入待预测数据,字典的 key 可通过 `get_input_keys` 方法获得;
+    * 返回值:dict 类型,包括待预测结果和预测数据等在内的数据,如 `{'input_path': 'a/b/c.jpg', 'image': ndarray(), 'cls_pred': [0.026 0.974], 'cls_result': [{'class_ids': [2, 1]}]}`,具体内容与模型及任务相关
 
-* get_input_keys:
-    * 参数:无
-    * 返回值:list 类型,表示 predict 方法的字典参数 input 所需指定的 key,如 `['path', 'size']` 表示字典参数 input 必须包含 `'path'` 和 `'size'` 两个 key,如 `[['input_path', 'size'], ['input_data']]` 表示字典参数 input 必须包含 `'input_path'` 和 `'size'` 两个 key,**或是**包含 `'input_data'`。
+* `get_input_keys`获取 `predict` 方法的 dict 类型形参 `input` 的 key;
+    * 参数:无
+    * 返回值:list 类型,表示 `predict` 方法的字典参数 `input` 所需指定的 key,如 `['path', 'size']` 表示字典参数 `input` 必须包含 `'path'` 和 `'size'` 两个 key,如 `[['input_path', 'size'], ['input_data']]` 表示字典参数 `input` 必须包含 `'input_path'` 和 `'size'` 两个 key,**或是**包含 `'input_data'`。

+ 3 - 3
docs/tutorials/pipelines/pipeline_inference_tools.md

@@ -135,14 +135,14 @@ paddlex --pipeline instance_segmentation --model Mask-RT-DETR-L --input https://
 
 ```python
 from pathlib import Path
-from paddlex import DetPipeline
+from paddlex import InstanceSegPipeline
 from paddlex import PaddleInferenceOption
 
 model_name =  "Mask-RT-DETR-L"
 output_base = Path("output")
 
 output = output_base / model_name
-pipeline = DetPipeline(model_name, output=output, kernel_option=PaddleInferenceOption())
+pipeline = InstanceSegPipeline(model_name, output=output, kernel_option=PaddleInferenceOption())
 result = pipeline.predict(
     {"input_path": "https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_instance_segmentation_004.png"})
 print(result["boxes"])
@@ -187,4 +187,4 @@ draw_img = draw_ocr_box_txt(result['original_image'],result['dt_polys'], result[
 cv2.imwrite("ocr_result.jpg", draw_img[:, :, ::-1])
 ```
 
-**注:** 更多产线推理持续更新中,敬请期待。
+**注:** 更多产线推理持续更新中,敬请期待。

+ 5 - 10
docs/tutorials/pipelines/support_pipeline_list.md

@@ -10,9 +10,9 @@ PaddleX 提供了丰富的模型产线,您可以在产线对应的星河社区
 | 通用目标检测 |[目标检测模型](../models/support_model_list.md#二目标检测)|[体验链接](https://aistudio.baidu.com/community/app/70230/webUI?source=appMineRecent)|通用目标检测产线汇聚了多个不同量级的目标检测模型。目标检测任务是计算机视觉领域的核心任务之一,旨在从图像或视频中找出所有感兴趣的目标(物体),并确定它们的类别和位置。|
 | 通用语义分割 |[语义分割模型](../models/support_model_list.md#四语义分割)|[体验链接](https://aistudio.baidu.com/community/app/100062/webUI?source=appMineRecent)|通用语义分割产线汇聚了多个不同量级的语义分割模型。被广泛用于街景分割、医学图像分割、道路分割等场景。旨在对不同类别的像素或区域进行区分。|
 | 通用实例分割 |[实例分割模型](../models/support_model_list.md#https://github.com/PaddlePaddle/PaddleX/blob/develop/docs/tutorials/models/support_model_list.md#三实例分割)|[体验链接](https://aistudio.baidu.com/community/app/100063/webUI?source=appMineRecent)|通用实例分割产线汇聚了多个不同量级的实例分割模型。实例分割任务是计算机视觉领域的核心任务之一,旨在从图像或视频中找出所有感兴趣的目标(物体),并确定它们的类别和像素边界。|
-| 通用OCR |[文本检测模型](../models/support_model_list.md#五文本检测)/[文本识别模型](../models/support_model_list.md#六文本识别)|[体验链接](https://aistudio.baidu.com/community/app/91660/webUI?source=appMineRecent)|通用 OCR 产线用于解决文字识别任务,提取图片中的文字信息以文本形式输出,PP-OCRv4 是一个端到端 OCR 串联系统,可实现 CPU 上毫秒级的文本内容精准预测,在通用场景上达到开源SOTA。基于该项目,产学研界多方开发者已快速落地多个 OCR 应用,使用场景覆盖通用、制造、金融、交通等各个领域。|
+| 通用OCR |[文本检测模型](../models/support_model_list.md#五文本检测)/[文本识别模型](../models/support_model_list.md#六文本识别)|[体验链接](https://aistudio.baidu.com/community/app/91660/webUI?source=appMineRecent)|通用 OCR 产线用于解决文字识别任务,提取图片中的文字信息以文本形式输出,PP-OCRv4 是一个端到端 OCR 串联系统,可实现 cpu 上毫秒级的文本内容精准预测,在通用场景上达到开源SOTA。基于该项目,产学研界多方开发者已快速落地多个 OCR 应用,使用场景覆盖通用、制造、金融、交通等各个领域。|
 | 通用表格识别 |[文本检测模型](../models/support_model_list.md#五文本检测)/[文本识别模型](../models/support_model_list.md#六文本识别)/版面分析模型/表格识别模型|[体验链接](https://aistudio.baidu.com/community/app/91661?source=appMineRecent)|通用表格识别产线是文本图像分析的子任务之一,旨在从图像中找到表格区域,并预测表格结构和文本内容,将表格恢复成 HTML 格式用于后续编辑或处理。|
-| 时序预测 |[时序预测模型](../models/support_model_list.md#九时序预测)|[体验链接](https://aistudio.baidu.com/community/app/105706/webUI?source=appMineRecent)|时序在每日的生活、工作中随处可见,比如 CPU 负载、上证指数、商场每天的人流量、商品每日的价格等都属于时间序列,总的来说时间序列就是按时间记录的有序数据,而时序预测就是运用历史的数据推测出事物的发展趋势。|
+| 时序预测 |[时序预测模型](../models/support_model_list.md#九时序预测)|[体验链接](https://aistudio.baidu.com/community/app/105706/webUI?source=appMineRecent)|时序在每日的生活、工作中随处可见,比如 cpu 负载、上证指数、商场每天的人流量、商品每日的价格等都属于时间序列,总的来说时间序列就是按时间记录的有序数据,而时序预测就是运用历史的数据推测出事物的发展趋势。|
 | 时序分类 |[时序分类模型](../models/support_model_list.md#八时序分类)|[体验链接](https://aistudio.baidu.com/community/app/105707/webUI?source=appMineRecent)|时间序列分类是时间序列分析的一个重要应用场景,目的是利用标记好的训练数据,确定一个时间序列属于预先定义的哪一个类别。常见的应用场景包括:医疗健康监测,工业设备状态监测,交通状况分类等。|
 | 时序异常检测 |[时序异常检测模型](../models/support_model_list.md#七时序异常检测)|[体验链接](https://aistudio.baidu.com/community/app/105708/webUI?source=appMineRecent)|时序异常检测是目前时序数据分析成熟的应用之一,其旨在从正常的时间序列数据中识别出异常的事件或行为模式,在众多领域都发挥着重要作用:量化交易中,用于发现异常交易行为,规避潜在的金融风险;在网络安全领域,用于实时监测网络流量,及时发现并预防网络攻击行为的发生;在自动驾驶汽车领域,异常检测可以持续监测车载传感器数据,及时发现可能导致事故的异常情况;而在大型工业设备维护中,异常检测也能够帮助工程师提前发现设备故障苗头,从而采取预防性维护措施,降低设备停机时间和维修成本。|
 
@@ -24,12 +24,7 @@ PaddleX 提供了丰富的模型产线,您可以在产线对应的星河社区
 | 大模型半监督学习-图像分类 |[图像分类模型](../models/support_model_list.md#一图像分类)|[体验链接](https://aistudio.baidu.com/community/app/100061/webUI?source=appMineRecent)|大模型半监督学习-图像分类产线是飞桨特色的图像分类训练产线,通过大小模型联合训练的方式,使用少量有标签数据和大量无标签数据提升模型的精度,大幅度减少人工迭代模型的成本、标注数据的成本。|
 | 大模型半监督学习-目标检测 |[目标检测模型](../models/support_model_list.md#二目标检测)|[体验链接](https://aistudio.baidu.com/community/app/70230/webUI?source=appMineRecent)|大模型半监督学习-目标检测产线是飞桨特色的目标检测训练产线,通过大小模型联合训练的方式,使用少量有标签数据和大量无标注数据提升模型的精度,大幅度减少人工迭代模型的成本、标注数据的成本。|
 | 大模型半监督学习-OCR |[文本识别模型](../models/support_model_list.md#六文本识别)|[体验链接](https://aistudio.baidu.com/community/app/91660/webUI?source=appMineRecent)|大模型半监督学习-OCR 产线是飞桨特色的 OCR 训练产线,由文本检测模型和文本识别模型串联完成。预测图片首先经过文本检测模型获取全部的文本行检测框并进行矫正,之后经文本识别模型得到 OCR 文本结果。在文本识别部分,通过大小模型联合训练的方式,使用少量有标签数据和大量无标签数据提升模型的精度,大幅度减少人工迭代模型的成本、标注数据的成本。|
-| 通用场景信息抽取 |[文本检测模型](../models/support_model_list.md#五文本检测)/[文本识别模型](../models/support_model_list.md#六文本识别)|[体验链接](https://aistudio.baidu.com/community/app/100061/webUI?source=appMineRecent)|通用场景信息抽取产线(PP-ChatOCRv2-common)是飞桨特色的复杂文档智能分析解决方案,结合了 LLM 和 OCR 技术,将文心大模型将海量数据和知识相融合,准确率高且应用广泛。|
-| 文档场景信息抽取 |[文本检测模型](../models/support_model_list.md#五文本检测)/[文本识别模型](../models/support_model_list.md#六文本识别)/版面分析模型/表格识别模型|[体验链接](https://aistudio.baidu.com/community/app/100061/webUI?source=appMineRecent)|文档场景信息抽取产线(PP-ChatOCRv2-doc)是飞桨特色的复杂文档智能分析解决方案,结合了 LLM 和 OCR 技术,一站式解决生僻字、特殊标点、多页 pdf、表格等常见的复杂文档信息抽取难点问题,结合文心大模型将海量数据和知识相融合,准确率高且应用广泛。|
+| 通用场景信息抽取 |[文本检测模型](../models/support_model_list.md#五文本检测)/[文本识别模型](../models/support_model_list.md#六文本识别)|[体验链接](https://aistudio.baidu.com/community/app/91662/webUI?source=appMineRecent)|通用场景信息抽取产线(PP-ChatOCRv2-common)是飞桨特色的复杂文档智能分析解决方案,结合了 LLM 和 OCR 技术,将文心大模型将海量数据和知识相融合,准确率高且应用广泛。|
+| 文档场景信息抽取 |[文本检测模型](../models/support_model_list.md#五文本检测)/[文本识别模型](../models/support_model_list.md#六文本识别)/版面分析模型/表格识别模型|[体验链接](https://aistudio.baidu.com/community/app/70303/webUI?source=appMineRecent)|文档场景信息抽取产线(PP-ChatOCRv2-doc)是飞桨特色的复杂文档智能分析解决方案,结合了 LLM 和 OCR 技术,一站式解决生僻字、特殊标点、多页 pdf、表格等常见的复杂文档信息抽取难点问题,结合文心大模型将海量数据和知识相融合,准确率高且应用广泛。|
 | 多模型融合时序预测v2 |[时序预测模型](../models/support_model_list.md#九时序预测)|[体验链接](https://aistudio.baidu.com/community/app/105706/webUI?source=appMineRecent)|多模型融合时序预测v2 产线的特点是针对不同任务场景,能够自适应的选择和集成模型,提升任务的精度。时序在每日的生活、工作中随处可见,时序预测的任务是指根据历史时间序列数据的模式和趋势,对未来的时间序列进行预测的任务。它在许多领域中都有应用,包括金融、天气预报、交通流量预测、销售预测、股票价格预测等。|
-| 多模型融合时序异常检测v2 |[时序异常检测模型](../models/support_model_list.md#七时序异常检测)|[体验链接](https://aistudio.baidu.com/community/app/105708/webUI?source=appMineRecent)|多模型融合时序异常检测产线的特点是针对不同任务场景,能够自适应的选择和集成模型,提升任务的精度。时序异常检测是目前时序数据分析成熟的应用之一,其旨在从正常的时间序列数据中识别出异常的事件或行为模式,在众多领域都发挥着重要作用:量化交易中,用于发现异常交易行为,规避潜在的金融风险;在网络安全领域,用于实时监测网络流量,及时发现并预防网络攻击行为的发生;在自动驾驶汽车领域,异常检测可以持续监测车载传感器数据,及时发现可能导致事故的异常情况;而在大型工业设备维护中,异常检测也能够帮助工程师提前发现设备故障苗头,从而采取预防性维护措施,降低设备停机时间和维修成本。
-
-|
-
-
-
+| 多模型融合时序异常检测v2 |[时序异常检测模型](../models/support_model_list.md#七时序异常检测)|[体验链接](https://aistudio.baidu.com/community/app/105708/webUI?source=appMineRecent)|多模型融合时序异常检测产线的特点是针对不同任务场景,能够自适应的选择和集成模型,提升任务的精度。时序异常检测是目前时序数据分析成熟的应用之一,其旨在从正常的时间序列数据中识别出异常的事件或行为模式,在众多领域都发挥着重要作用:量化交易中,用于发现异常交易行为,规避潜在的金融风险;在网络安全领域,用于实时监测网络流量,及时发现并预防网络攻击行为的发生;在自动驾驶汽车领域,异常检测可以持续监测车载传感器数据,及时发现可能导致事故的异常情况;而在大型工业设备维护中,异常检测也能够帮助工程师提前发现设备故障苗头,从而采取预防性维护措施,降低设备停机时间和维修成本。|

+ 3 - 0
paddlex/__init__.py

@@ -43,6 +43,9 @@ def _check_paddle_version():
     """
     import paddle
     supported_versions = ['3.0', '0.0']
+    device_type = paddle.device.get_device().split(':')[0]
+    if device_type.lower() == 'xpu':
+        supported_versions.append('2.6')
     version = paddle.__version__
     # Recognizable version number: major.minor.patch
     major, minor, patch = version.split('.')

+ 1 - 1
paddlex/modules/text_detection/dataset_checker/dataset_src/analyse_dataset.py

@@ -99,7 +99,7 @@ def simple_analyse(dataset_path, max_recorded_sample_cnts=20, show_label=True):
                                 return res
 
                             box = np.array(item['points'])
-                            if box.shape != (4, 2):
+                            if box.shape[1] != 2:
                                 res.insert(0, "数据集的标注文件不符合规范")
                                 return res
                             boxes.append(box)

+ 1 - 1
paddlex/modules/text_detection/dataset_checker/dataset_src/check_dataset.py

@@ -77,7 +77,7 @@ def check(dataset_dir, output, sample_num=10):
                         assert "points" in item and "transcription" in item, \
                             f"line {idx} is not in the correct format."
                         box = np.array(item['points'])
-                        assert box.shape == (4, 2), \
+                        assert box.shape[1] == 2, \
                             f"{box} in line {idx} is not in the correct format."
 
                         txt = item['transcription']

+ 1 - 0
paddlex/utils/result_saver.py

@@ -39,6 +39,7 @@ def try_except_decorator(func):
                 err_type=str(exc_type),
                 err_msg=str(exc_value))
             traceback.print_exception(exc_type, exc_value, exc_tb)
+            sys.exit(1)
 
     return wrap