|
|
@@ -1,11 +1,11 @@
|
|
|
-# 模型产线部署
|
|
|
+# 基于FastDeploy的模型产线部署
|
|
|
|
|
|
-针对不同应用场景,PaddleX通过离线部署包提供2种模型产线本地部署方案:
|
|
|
+除了[模型产线推理 Python API 文档](./pipeline_inference_api.md)中介绍的模型产线部署方案外,PaddleX还提供基于全场景、多后端推理工具FastDeploy的部署方案。基于FastDeploy的部署方案支持更多后端,并且提供高性能推理和服务化部署两种部署方式,能够满足更多场景的需求:
|
|
|
|
|
|
- **高性能推理**:运行脚本执行推理,或在程序中调用Python/C++的推理API。旨在实现测试样本的高效输入与模型预测结果的快速获取,特别适用于大规模批量刷库的场景,显著提升数据处理效率。
|
|
|
- **服务化部署**:采用C/S架构,以服务形式提供推理能力,客户端可以通过网络请求访问服务,以获取推理结果。
|
|
|
|
|
|
-请注意,目前并非所有模型都支持基于离线部署包的部署,具体支持情况请参考[模型部署支持情况](#模型部署支持情况)。
|
|
|
+请注意,目前并非所有模型都支持基于FastDeploy的部署,具体支持情况请参考[模型部署支持情况](#模型部署支持情况)。
|
|
|
|
|
|
## 操作流程
|
|
|
|
|
|
@@ -19,7 +19,7 @@
|
|
|
|
|
|
## 模型部署支持情况
|
|
|
|
|
|
-| 模型名称 | 是否支持基于离线部署包的部署 |
|
|
|
+| 模型名称 | 是否支持基于FastDeploy的部署 |
|
|
|
| :---: | :---: |
|
|
|
| ResNet18 | 是 |
|
|
|
| ResNet34 | 是 |
|