cuicheng01 1 gadu atpakaļ
vecāks
revīzija
5a66455b2a

+ 18 - 25
README.md

@@ -26,7 +26,7 @@ PaddleX 3.0 是飞桨精选模型的低代码开发工具,支持国内外多
 ## 📣 近期更新
 
 - 🔥 **2024.6.27,PaddleX 3.0 Beta 本地端正式发布,支持以低代码的方式在本地端使用多种主流硬件进行产线和模型开发。**
-- 🔥 **2024.3.25,PaddleX 3.0 云端发布,支持在[星河社区](https://aistudio.baidu.com/pipeline/mine)以零代码的方式【创建产线】使用。**
+- 🔥 **2024.3.25,PaddleX 3.0 云端发布,支持在[星河社区](https://aistudio.baidu.com/pipeline/mine )以零代码的方式【创建产线】使用。**
 
 ## 🌟 特性
 
@@ -46,8 +46,8 @@ PaddleX 3.0 集成了飞桨生态的优势能力,覆盖 7 大场景任务,
 ## ⚡ 安装与快速开始
 - [安装](./docs/tutorials/INSTALL.md)
 - 快速开始
-  - [单模型开发工具](./docs/tutorials/models/model_inference_tools.md)
-  - [模型产线开发工具](./docs/tutorials/pipelines/pipeline_inference_tools.md)
+  - [模型产线开发工具](./docs/tutorials/pipelines/pipeline_deploy_tools.md)
+  - [单模型开发工具](./docs/tutorials/models/model_deploy_tools.md)
 
 ## 🛠️ PaddleX 3.0 覆盖的模型和模型产线
 
@@ -115,7 +115,7 @@ PaddleX 3.0 集成了飞桨生态的优势能力,覆盖 7 大场景任务,
     <td>PicoDet layout_1x</td>
   </tr>
   <tr>
-    <td>表格识别</td>
+    <td>表格结构识别</td>
     <td>SLANet</td>
   </tr>
   <tr>
@@ -188,10 +188,8 @@ PaddleX 3.0 集成了飞桨生态的优势能力,覆盖 7 大场景任务,
 </table>
 
 
-
-
-  - [单模型列表](./docs/tutorials/models/support_model_list.md)
   - [模型产线列表](./docs/tutorials/pipelines/support_pipeline_list.md)
+  - [单模型列表](./docs/tutorials/models/support_model_list.md)
 
 ## 📖 零代码开发教程
 <div align="center">
@@ -202,29 +200,24 @@ PaddleX 3.0 集成了飞桨生态的优势能力,覆盖 7 大场景任务,
 - [教程《零门槛开发产业级 AI 模型》](https://aistudio.baidu.com/practical/introduce/546656605663301):提供产业级模型开发经验,并且用 12 个实用的产业实践案例,手把手带你零门槛开发产业级 AI 模型。
 
 ## 📖 低代码开发教程
-### 一、单模型开发工具 🚀
-本节介绍 PaddleX 3.0 单模型的全流程开发流程,包括数据准备、模型训练/评估、模型推理的使用方法。PaddleX 3.0 支持的模型可以参考 [PaddleX 模型库](./docs/tutorials/models/support_model_list.md)。
-- 快速体验
-  - [单模型快速体验](./docs/tutorials/models/model_inference_tools.md)
-- 数据准备
-  - [数据准备流程](./docs/tutorials/data/README.md)
-  - [数据标注](./docs/tutorials/data/annotation/README.md)
-  - [数据校验](./docs/tutorials/data/dataset_check.md)
-- [模型训练/评估/推理](./docs/tutorials/base/README.md)
-
-
-### 二、模型产线开发工具 🔥
-本节将介绍 PaddleX 3.0 模型产线的全流程开发流程,包括数据准备、模型训练/评估、模型推理的使用方法。PaddleX 3.0 支持的模型产线可以参考 [PaddleX 模型产线列表](./docs/tutorials/pipelines/support_pipeline_list.md)。
-- [产线快速体验](./docs/tutorials/pipelines/pipeline_inference_tools.md)
+
+### 一、模型产线开发工具 🔥
+PaddleX 3.0 模型产线开发工具支持开发者通过 6 个步骤,完成产业级落地解决方案的开发。PaddleX 3.0 支持的模型产线可以参考 [PaddleX 模型产线列表](./docs/tutorials/pipelines/support_pipeline_list.md)。
+- [产线快速体验](./docs/tutorials/pipelines/pipeline_inference.md)
 - [产线模型选择](./docs/tutorials/pipelines/model_select.md)
-- [产线开发流程](./docs/tutorials/pipelines/pipeline_develop.md)
+- [产线开发流程](./docs/tutorials/pipelines/pipeline_develop_tools.md)
+
+### 二、单模型开发工具 🚀
+PaddleX 3.0 单模型开发工具支持开发者以低代码的方式快速实现模型的开发和优化,包括数据准备、模型训练/评估、模型推理的使用方法,方便低成本集成到模型产线中。PaddleX3.0 支持的模型可以参考 [PaddleX 模型库](./docs/tutorials/models/support_model_list.md)。
+- [数据校验](./docs/tutorials/data/dataset_check.md)
+- [模型开发](./docs/tutorials/models/model_develop_tools.md)
 
 ## 🌟 多硬件支持
-本项目支持在多种硬件上进行模型的开发,除了 GPU 外,当前支持的硬件还有**昆仑芯**、**昇腾**、**寒武纪**。只需添加一个配置设备的参数,即可在对应硬件上使用上述工具。使用方式详情[多硬件使用](./docs/tutorials/base/devices_use_guidance.md)。
+PaddleX 3.0 支持在多种硬件上进行模型的开发,除了 GPU 外,当前支持的硬件还有**昆仑芯**、**昇腾**、**寒武纪**。只需添加一个配置设备的参数,即可在对应硬件上使用上述工具。使用方式详情[多硬件使用](./docs/tutorials/base/devices_use_guidance.md)。
 
-- 昇腾支持的模型列表请参考 [PaddleX 昇腾模型列表](./docs/tutorials/models/support_npu_model_list.md)。
+- 昇腾支持的模型列表请参考 [PaddleX 昇腾模型列表](./docs/tutorials/models/support_npu_model_list.md)。
 - 昆仑芯支持的模型列表请参考 [PaddleX 昆仑芯模型列表](./docs/tutorials/models/support_xpu_model_list.md)。
-- 寒武纪支持的模型列表请参考 [PaddleX 寒武纪模型列表](./docs/tutorials/models/support_mlu_model_list.md)。
+- 寒武纪支持的模型列表请参考 [PaddleX 寒武纪模型列表](./docs/tutorials/models/support_mlu_model_list.md)。
 
 
 ## 👀 贡献代码

+ 31 - 9
docs/tutorials/base/README.md → docs/tutorials/models/model_develop_tools.md

@@ -1,9 +1,11 @@
-# PaddleX 模型训练、评估和推理
+# PaddleX 单模型开发工具
 
-在训练之前,请确保您的数据集已经经过了[数据校验](../data/README.md)。经过数据校验的数据集才可以进行训练。PaddleX 提供了很多不同的任务模块,不同的模块下又内置了很多被广泛验证的高精度、高效率、精度效率均衡的模型。训练模型时,您只需要一行命令,即可发起相应任务的训练。本文档提供了图像分类任务模块的 `PP-LCNet_x1_0` 模型的训练和评估示例,其他任务模块的训练与图像分类类似。当您按照[PaddleX 数据集标注](../data/annotation/README.md)和 [PaddleX 数据集校验](../data/dataset_check.md)准备好训练数据后,即可参考本文档完成所有 PaddleX 支持的模型训练
+PaddleX 提供了丰富的单模型,其是完成某一类任务的子模块的最小单元,模型开发完后,可以方便地集成到各类系统中。PaddleX 中的每个模型提供了官方权重,支持通过命令行方式直接推理预测和调用 Python API 预测。命令行方式直接推理预测可以快速体验模型推理效果,而 Python API 预测可以方便地集成到自己的项目中进行预测。在使用单模型开发工具之前,首先需要安装 PaddleX 的 wheel 包,安装方式请参考 [PaddleX 安装文档](../INSTALL.md)
 
 ## 1. 模型训练
 
+在训练之前,请确保您的数据集已经经过了[数据校验](../data/README.md)。经过数据校验的数据集才可以进行训练。PaddleX 提供了很多不同的任务模块,不同的模块下又内置了很多被广泛验证的高精度、高效率、精度效率均衡的模型。训练模型时,您只需要一行命令,即可发起相应任务的训练。本文档提供了图像分类任务模块的 `PP-LCNet_x1_0` 模型的训练和评估示例,其他任务模块的训练与图像分类类似。当您按照 [PaddleX 数据集标注](../data/annotation/README.md)和 [PaddleX 数据集校验](../data/dataset_check.md)准备好训练数据后,即可参考本文档完成所有 PaddleX 支持的模型训练。
+
 完成 PaddleX 模型的训练,只需如下一条命令:
 
 ```bash
@@ -23,7 +25,7 @@ PaddleX 中每个模型都提供了模型开发的配置文件,用于设置相
     * `epochs_iters`:训练轮次数设置;
     * `learning_rate`:训练学习率设置;
 
-更多超参数介绍,请参考 [PaddleX 超参数介绍](./hyperparameters_introduction.md)。
+更多超参数介绍,请参考 [PaddleX 超参数介绍](../base/hyperparameters_introduction.md)。
 
 **注:**
 - 以上参数可以通过追加令行参数的形式进行设置,如指定模式为模型训练:`-o Global.mode=train`;指定前 2 卡 gpu 训练:`-o Global.device=gpu:0,1`;设置训练轮次数为 10:`-o Train.epochs_iters=10`。
@@ -44,7 +46,7 @@ python main.py -c paddlex/configs/image_classification/PP-LCNet_x1_0.yaml \
 
 **注:** 在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如`-o Evaluate.weight_path=./output/best_model.pdparams`。
 
-# 3. 模型推理
+## 3. 模型推理
 
 在完成后,即可使用训练好的模型权重进行推理预测。使用 PaddleX 模型,通过命令行的方式进行推理预测,只需如下一条命令:
 
@@ -55,7 +57,24 @@ python main.py -c paddlex/configs/image_classification/PP-LCNet_x1_0.yaml \
     -o Predict.input_path="https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_image_classification_001.jpg"
 ```
 
-**注:** PaddleX 允许使用 wheel 包进行推理,在此处,当您验证好自己的模型之后,即使用 PaddleX 的 wheel 包进行推理,方便地将模型集成到您自己的项目中。模型推理方法请参考 [PaddleX 单模型开发工具推理预测](../models/model_inference_tools.md)。
+**注:** PaddleX 允许使用 wheel 包进行模型集成,在此处,当您验证好自己的模型之后,即可使用 PaddleX 的 wheel 包进行推理,方便地将模型集成到您自己的项目中。集成方式如下:
+
+```python
+from paddlex import PaddleInferenceOption, create_model
+
+model_name = "PP-LCNet_x1_0"
+
+# 实例化 PaddleInferenceOption 设置推理配置
+kernel_option = PaddleInferenceOption()
+kernel_option.set_device("gpu:0")
+
+# 调用 create_model 函数实例化预测模型
+model = create_model(model_name=model_name, model_dir="/output/best_model", kernel_option=kernel_option)
+
+# 调用预测模型 model 的 predict 方法进行预测
+result = model.predict({'input_path': "https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_image_classification_001.jpg"})
+```
+关于 Python API 的更多介绍,您可以参考 [PaddleX 模型推理 API](model_inference_api.md)。
 
 ## 4. 须知事项
 
@@ -68,7 +87,10 @@ python main.py -c paddlex/configs/image_classification/PP-LCNet_x1_0.yaml \
 
 在完成模型训练后,所有产出保存在指定的输出目录(默认为`./output/`)下,通常有以下产出:
 
-* train_result.json:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等;
-* train.log:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;
-* config.yaml:训练配置文件,记录了本次训练的超参数的配置;
-* .pdparams、.pdema、.pdopt.pdstate、.pdiparams、.pdmodel:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;
+- `train_result.json`:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等;
+- `train.log`:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;
+- `config.yaml`:训练配置文件,记录了本次训练的超参数的配置;
+- `.pdparams`、`.pdema`、`.pdopt.pdstate`、`.pdiparams`、`.pdmodel`:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;
+
+
+

+ 0 - 31
docs/tutorials/models/model_inference_tools.md

@@ -1,31 +0,0 @@
-# PaddleX 单模型开发工具推理预测
-
-PaddleX 提供了丰富的单模型,其是完成某一类任务的子模块的最小单元,模型开发完后,可以方便地集成到各类系统中。PaddleX 中的每个模型提供了官方权重,支持通过命令行方式直接推理预测和调用 Python API 预测。命令行方式直接推理预测可以快速体验模型推理效果,而 Python API 预测可以方便地集成到自己的项目中进行预测。
-
-## 1.安装 PaddleX
-
-在使用单模型开发工具之前,首先需要安装 PaddleX 的 wheel 包,安装方式请参考 [PaddleX 安装文档](../INSTALL.md)。
-
-## 2.PaddleX 单模型开发工具使用方式
-
-### 2.1 推理预测
-
-PaddleX 支持单模型的统一推理 Python API,基于 Python API,您可以修改更多设置,实现多模型串联,自定义产线任务。使用 Python API 仅需几行代码,如下所示:
-
-```python
-from paddlex import PaddleInferenceOption, create_model
-
-model_name = "PP-LCNet_x1_0"
-
-# 实例化 PaddleInferenceOption 设置推理配置
-kernel_option = PaddleInferenceOption()
-kernel_option.set_device("gpu:0")
-
-# 调用 create_model 函数实例化预测模型
-model = create_model(model_name=model_name, kernel_option=kernel_option)
-
-# 调用预测模型 model 的 predict 方法进行预测
-result = model.predict({'input_path': "https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_image_classification_001.jpg"})
-```
-
-PaddleX 提供的所有模型均支持以上 Python API 的调用,关于模型列表,您可以参考 [PaddleX 模型列表](../models/support_model_list.md),关于 Python API 的更多介绍,您可以参考 [PaddleX 模型推理 API](model_inference_api.md)。

+ 1 - 1
docs/tutorials/pipelines/pipeline_deployment_with_fastdeploy.md

@@ -10,7 +10,7 @@
 ## 操作流程
 
 1. 获取离线部署包。
-    1. 在 [星河社区](https://aistudio.baidu.com/pipeline/mine) 创建产线,在“选择产线”页面点击“直接部署”。
+    1. 在 [AIStudio 星河社区](https://aistudio.baidu.com/pipeline/mine) 创建产线,在“选择产线”页面点击“直接部署”。
     2. 在“产线部署”页面选择“导出离线部署包”,使用默认的模型方案,点击“导出部署包”。
     3. 待部署包导出完毕后,点击“下载离线部署包”,将部署包下载到本地。
     4. 点击“生成部署包序列号”,根据页面提示完成设备指纹的获取以及设备指纹与序列号的绑定,确保序列号对应的激活状态为“已激活“。

+ 0 - 25
docs/tutorials/pipelines/pipeline_develop.md

@@ -1,25 +0,0 @@
-# PaddleX 模型产线开发流程
-
-PaddleX 提供了丰富的模型产线,模型产线由一个或多个模型组合实现,每个模型产线都能够解决特定的场景任务问题。PaddleX 所提供的模型产线均支持在线体验,如果效果不及预期,也同样支持使用私有数据微调模型,并且 PaddleX 提供了 Python API,方便将产线集成到个人项目中。具体步骤如下:
-
-1. 【**选择产线**】:了解 PaddleX 支持的模型产线[模型产线列表](./support_pipeline_list.md),根据场景任务选择对应的产线;
-2. 【**在线体验**】点击对应产线的“星河社区体验地址”,前往[AI Studio 星河社区](https://aistudio.baidu.com/pipeline/mine)进行在线体验;
-3. 【**选择模型**】(可选)对产线中效果不及预期的模块进行微调,首先根据模块参考文档[模型选择](./model_select.md)选择可替换的模型;
-4. 【**模型微调**】(可选)选择好对应的模型后,即可进行模型训练,具体参考[模型训练、评估和推理](../base/README.md);
-5. 【**产线测试**】(可选)将产线中的模型替换为微调后的模型进行测试,具体参考[模型产线开发工具推理预测](./pipeline_inference_tools.md);
-6. 【**开发集成/部署**】使用 PaddleX Python API 将模型产线集成到个人项目中(具体参考[模型产线推理 Python API 文档](./pipeline_inference_api.md)),或使用离线部署包实现基于 FastDeploy 的本地高性能推理/服务化部署(具体参考[基于 FastDeploy 的模型产线部署](./pipeline_deployment_with_fastdeploy.md))。
-
-**PaddleX 模型产线开发流程图**
-
-```mermaid
-graph LR
-    select_pipeline(选择产线) --> online_experience[在线体验]
-    online_experience --> online_ok{效果满意?}
-    online_ok --不满意--> select_model[选择模型]
-    select_model --> model_finetune[模型微调]
-    online_ok --满意--> development_integration(开发集成/部署)
-    model_finetune --> pipeline_test[产线测试]
-    pipeline_test --> test_ok{效果满意?}
-    test_ok --不满意--> select_model
-    test_ok --满意--> development_integration
-```

+ 75 - 0
docs/tutorials/pipelines/pipeline_develop_tools.md

@@ -0,0 +1,75 @@
+# PaddleX 模型产线开发工具
+
+PaddleX 提供了丰富的模型产线,模型产线由一个或多个模型组合实现,每个模型产线都能够解决特定的场景任务问题。PaddleX 所提供的模型产线均支持在线体验,如果效果不及预期,也同样支持使用私有数据微调模型,并且 PaddleX 提供了 Python API,方便将产线集成到个人项目中。在使用之前,您首先需要安装 PaddleX, 安装方式请参考[PaddleX 安装](../INSTALL.md)。此处以一个车牌识别的任务为例子,介绍模型产线工具的使用流程。
+
+- 1.【**选择产线**】:首先,需要根据您的任务场景,选择对应的 PaddleX 产线,此处为车牌识别,需要了解到这个任务属于 OCR 任务,对应 PaddleX 的通用 OCR 产线。如果无法确定任务和产线的对应关系,您可以在 PaddleX 支持的模型产线[模型产线列表](./support_pipeline_list.md)中了解相关产线的能力介绍。
+- 2.【**在线体验**】PaddleX 提供了两种在线体验的方式,一种是可以直接通过 PaddleX wheel 包在本地体验,另外一种是可以在**AI Studio 星河社区**上体验。
+  - 本地体验方式:
+    ```bash
+    paddlex --pipeline OCR --model PP-OCRv4_mobile_det PP-OCRv4_mobile_rec --input https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_ocr_002.png --device gpu:0
+    ```
+    **注:** 通用 OCR 产线是一个多模型串联的产线,包含文本检测模型(如 `PP-OCRv4_mobile_det`)和文本识别模型(如 `PP-OCRv4_mobile_rec`),因此需要指定两个模型进行体验。
+  - 星河社区体验方式:前往[AI Studio 星河社区](https://aistudio.baidu.com/pipeline/mine),点击【创建产线】,创建**通用 OCR** 产线进行在线体验;
+- 3.【**选择模型**】(可选)当体验完该产线之后,需要确定产线是否符合预期(包含精度、速度等),产线包含的模型是否需要继续微调,如果模型的速度或者精度不符合预期,则需要根据[模型选择](./model_select.md)选择可替换的模型继续测试,确定效果是否满意。如果最终效果均不满意,则需要微调模型。在确定微调的模型时,需要根据测试的情况确定微调其中的哪个模型,如发现文字的定位不准,则需要微调文本检测模型,如果发现文字的识别不准,则需要微调文本识别模型。  
+- 4.【**模型微调**】(可选)在第 3 步选择好对应的模型后,即可使用**单模型开发工具**以低代码的方式进行模型微调训练和优化,如此处需要优化文本识别模型(`PP-OCRv4_mobile_rec`),则只需要完成【数据校验】和【模型训练】,二者命令如下:
+
+  ```bash
+  # 数据校验
+  python main.py -c paddlex/configs/text_recognition/PP-OCRv4_mobile_rec.yaml \
+      -o Global.mode=check_dataset \
+      -o Global.dataset_dir=your/dataset_dir 
+  # 模型训练
+  python main.py -c paddlex/configs/text_recognition/PP-OCRv4_mobile_rec.yaml \
+      -o Global.mode=train \
+      -o Global.dataset_dir=your/dataset_dir 
+  ```
+  关于模型更多的训练和优化内容,请参考[PaddleX 单模型开发工具](../models/model_develop_tools.md);
+- 5.【**产线测试**】(可选)将产线中的模型替换为微调后的模型进行测试,如:
+    ```bash
+    paddlex --pipeline OCR --model PP-OCRv4_mobile_det PP-OCRv4_mobile_rec --model_dir None "your/model_dir" --input https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_ocr_002.png --device gpu:0
+    ```
+  此处更多内容,参考[模型产线推理预测](./pipeline_inference.md),此处如果效果满意,可以跳到第 6 步,如果效果不满意,则可以回到第 4 步继续微调模型。
+- 6.【**开发集成/部署**】
+
+  此处提供轻量级的 PaddleX Python API 的集成方式,也提供高性能推理/服务化部署的方式部署模型。 PaddleX Python API 的集成方式如下:
+
+  ```python
+    import cv2
+    from paddlex import OCRPipeline
+    from paddlex import PaddleInferenceOption
+    from paddlex.pipelines.OCR.utils import draw_ocr_box_txt
+
+    # 实例化 PaddleInferenceOption 设置推理配置
+    kernel_option = PaddleInferenceOption()
+    kernel_option.set_device("gpu:0")
+
+    pipeline = OCRPipeline(
+        'PP-OCRv4_mobile_det',
+        'PP-OCRv4_mobile_rec',
+        text_det_kernel_option=kernel_option,
+        text_rec_kernel_option=kernel_option,)
+    result = pipeline.predict(
+        {"input_path": "https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_ocr_002.png"},
+    )
+
+    draw_img = draw_ocr_box_txt(result['original_image'], result['dt_polys'], result["rec_text"])
+    cv2.imwrite("ocr_result.jpg", draw_img[:, :, ::-1])
+  ```
+  其他产线的 Python API 集成方式可以参考[PaddleX 模型产线推理预测](./pipeline_inference.md)。
+
+  PadleX 同样提供了高性能的离线部署和服务化部署方式,具体参考[基于 FastDeploy 的模型产线部署](./pipeline_deployment_with_fastdeploy.md)。
+
+**附:PaddleX 模型产线开发流程图**
+
+```mermaid
+graph LR
+    select_pipeline(选择产线) --> online_experience[在线体验]
+    online_experience --> online_ok{效果满意?}
+    online_ok --不满意--> select_model[选择模型]
+    select_model --> model_finetune[模型微调]
+    online_ok --满意--> development_integration(开发集成/部署)
+    model_finetune --> pipeline_test[产线测试]
+    pipeline_test --> test_ok{效果满意?}
+    test_ok --不满意--> select_model
+    test_ok --满意--> development_integration
+```

+ 7 - 7
docs/tutorials/pipelines/pipeline_inference_tools.md → docs/tutorials/pipelines/pipeline_inference.md

@@ -1,14 +1,14 @@
-# PaddleX 模型产线开发工具推理预测
+# PaddleX 模型产线推理预测
 
 模型产线指的是可以独立完成某类任务且具备落地能力的模型或模型组合,其可以是单模型产线,也可以是多模型组合的产线,PaddleX 提供了丰富的模型产线,可以方便地完成 AI 任务的推理和部署。云端使用请前往飞桨 [AI Studio 星河社区](https://aistudio.baidu.com/pipeline/mine)创建产线使用,本地端使用可以参考本文档, PaddleX 中的每个模型产线有多个模型可供选择,并均提供了官方权重,支持通过命令行方式直接推理预测和调用 Python API 预测。命令行方式直接推理预测可以快速体验模型推理效果,而 Python API 预测可以方便地集成到自己的项目中进行预测。
 
 ## 1.安装 PaddleX
 在使用单模型开发工具之前,首先需要安装 PaddleX 的 wheel 包,安装方式请参考 [PaddleX 安装文档](../INSTALL.md)。
 
-## 2.PaddleX 模型产线开发工具使用方式
+## 2.PaddleX 模型产线使推理预测
 
 ### 2.1 通用图像分类产线
-图像分类产线内置了多个图像分类的单模型,包含 `ResNet` 系列、`PP-LCNet` 系列、`MobileNetV2` 系列、`MobileNetV3` 系列、`ConvNeXt` 系列、`PP-HGNet` 系列、`PP-HGNetV2` 系列、`CLIP` 系列等模型。具体支持的分类模型列表,您可以参考[模型库](../models/support_model_list.md),您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 模型训练文档](../base/README.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
+图像分类产线内置了多个图像分类的单模型,包含 `ResNet` 系列、`PP-LCNet` 系列、`MobileNetV2` 系列、`MobileNetV3` 系列、`ConvNeXt` 系列、`PP-HGNet` 系列、`PP-HGNetV2` 系列、`CLIP` 系列等模型。具体支持的分类模型列表,您可以参考[模型库](../models/support_model_list.md),您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 单模型开发工具](../models/model_develop_tools.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
 
 **命令行使用方式**
 
@@ -50,7 +50,7 @@ print(result["cls_result"])
 ### 2.2 通用目标检测产线
 
 
-目标检测产线内置了多个目标检测的单模型,包含`RT-DETR` 系列、`PP-YOLO-E` 系列等模型。具体支持的目标检测模型列表,您可以参考[模型库](../models/support_model_list.md),您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 模型训练文档](../base/README.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
+目标检测产线内置了多个目标检测的单模型,包含`RT-DETR` 系列、`PP-YOLO-E` 系列等模型。具体支持的目标检测模型列表,您可以参考[模型库](../models/support_model_list.md),您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 单模型开发工具](../models/model_develop_tools.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
 
 **命令行使用方式**
 
@@ -91,7 +91,7 @@ print(result["boxes"])
 ### 2.3 通用语义分割产线
 
 
-语义分割产线内置了多个语义分割的单模型,包含`OCRNet` 系列、`DeepLabv3` 系列等模型。具体支持的语义分割模型列表,您可以参考[模型库](../models/support_model_list.md),您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 模型训练文档](../base/README.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
+语义分割产线内置了多个语义分割的单模型,包含`OCRNet` 系列、`DeepLabv3` 系列等模型。具体支持的语义分割模型列表,您可以参考[模型库](../models/support_model_list.md),您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 单模型开发工具](../models/model_develop_tools.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
 
 **命令行使用方式**
 
@@ -132,7 +132,7 @@ print(result["seg_map"])
 ### 2.4 通用实例分割产线
 
 
-实例分割产线内置了两个目前 SOTA 的单模型,分别是 `Mask-RT-DETR-L` 和 `Mask-DT-DETR-H`。您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 模型训练文档](../base/README.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
+实例分割产线内置了两个目前 SOTA 的单模型,分别是 `Mask-RT-DETR-L` 和 `Mask-DT-DETR-H`。您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 单模型开发工具](../models/model_develop_tools.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
 
 **命令行使用方式**
 
@@ -170,7 +170,7 @@ print(result["boxes"])
 ```
 
 ### 2.5 OCR 产线
-OCR 产线内置了 PP-OCRv4 模型,包括文本检测和文本识别两个部分。文本检测支持的模型有 `PP-OCRv4_mobile_det`、`PP-OCRv4_server_det`,文本识别支持的模型有 `PP-OCRv4_mobile_rec`、`PP-OCRv4_server_rec`。您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 模型训练文档](../base/README.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
+OCR 产线内置了 PP-OCRv4 模型,包括文本检测和文本识别两个部分。文本检测支持的模型有 `PP-OCRv4_mobile_det`、`PP-OCRv4_server_det`,文本识别支持的模型有 `PP-OCRv4_mobile_rec`、`PP-OCRv4_server_rec`。您可以使用以下两种方式进行推理预测,如果在您的场景中,上述模型不能满足您的需求,您可以参考 [PaddleX 单模型开发工具](../models/model_develop_tools.md) 进行训练,训练后的模型可以非常方便地集成到该产线中。
 
 
 **命令行使用方式**

+ 1 - 1
docs/tutorials/pipelines/support_pipeline_list.md

@@ -1,6 +1,6 @@
 # PaddleX 模型产线列表
 
-PaddleX 提供了丰富的模型产线,您可以在产线对应的星河社区体验地址里体验,也可以在本地体验,本地体验方式请参考 [PaddleX 模型产线](./pipeline_inference_tools.md)。
+PaddleX 提供了丰富的模型产线,您可以在产线对应的星河社区体验地址里体验,也可以在本地体验,本地体验方式请参考 [PaddleX 模型产线推理预测](./pipeline_inference.md)。
 
 ## 基础模型产线