pipeline_deployment_with_fastdeploy.md 3.8 KB

基于 FastDeploy 的模型产线部署

除了 模型产线推理 Python API 文档 中介绍的模型产线部署方案外,PaddleX 还提供基于全场景、多后端推理工具 FastDeploy 的部署方案。基于 FastDeploy 的部署方案支持更多后端,并且提供高性能推理和服务化部署两种部署方式,能够满足更多场景的需求:

  • 高性能推理:运行脚本执行推理,或在程序中调用 Python/C++ 的推理 API。旨在实现测试样本的高效输入与模型预测结果的快速获取,特别适用于大规模批量刷库的场景,显著提升数据处理效率。
  • 服务化部署:采用 C/S 架构,以服务形式提供推理能力,客户端可以通过网络请求访问服务,以获取推理结果。

请注意,目前并非所有产线、所有模型都支持基于 FastDeploy 的部署,具体支持情况请参考 支持 FastDeploy 部署的产线与模型

操作流程

  1. 获取离线部署包。
    1. AIStudio 星河社区 创建产线,在“选择产线”页面点击“直接部署”。
    2. 在“产线部署”页面选择“导出离线部署包”,使用默认的模型方案,点击“导出部署包”。
    3. 待部署包导出完毕后,点击“下载离线部署包”,将部署包下载到本地。
    4. 点击“生成部署包序列号”,根据页面提示完成设备指纹的获取以及设备指纹与序列号的绑定,确保序列号对应的激活状态为“已激活“。
  2. 使用自训练模型替换离线部署包 model 目录中的模型。需注意模型与产线模块的对应关系,并且不要修改 model 的目录结构。
  3. 根据需要选择要使用的部署SDK:offline_sdk 目录对应高性能推理SDK,serving_sdk 目录对应服务化部署SDK。按照SDK文档(README.md)中的说明,完成产线的本地部署。

支持 FastDeploy 部署的产线与模型

模型产线 产线模块 具体模型
通用图像分类 图像分类 CLIP_vit_base_patch16_224
CLIP_vit_large_patch14_224
more
ConvNeXt_tiny
MobileNetV2_x0_25
MobileNetV2_x0_5
MobileNetV2_x1_0
MobileNetV2_x1_5
MobileNetV2_x2_0
MobileNetV3_large_x0_35
MobileNetV3_large_x0_5
MobileNetV3_large_x0_75
MobileNetV3_large_x1_0
MobileNetV3_large_x1_25
MobileNetV3_small_x0_35
MobileNetV3_small_x0_5
MobileNetV3_small_x0_75
MobileNetV3_small_x1_0
MobileNetV3_small_x1_25
PP-HGNet_small
PP-HGNetV2-B0
PP-HGNetV2-B4
PP-HGNetV2-B6
PP-LCNet_x0_25
PP-LCNet_x0_35
PP-LCNet_x0_5
PP-LCNet_x0_75
PP-LCNet_x1_0
PP-LCNet_x1_5
PP-LCNet_x2_0
PP-LCNet_x2_5
ResNet18
ResNet34
ResNet50
ResNet101
ResNet152
通用目标检测 目标检测 PicoDet-S
PicoDet-L
more
PP-YOLOE_plus-S
PP-YOLOE_plus-M
PP-YOLOE_plus-L
PP-YOLOE_plus-X
通用语义分割 语义分割 OCRNet_HRNet-W48
PP-LiteSeg-T
more
Deeplabv3-R50
Deeplabv3-R101
Deeplabv3_Plus-R50
Deeplabv3_Plus-R101
通用 OCR 文本检测 PP-OCRv4_mobile_det
PP-OCRv4_server_det
文本识别 PP-OCRv4_mobile_rec
PP-OCRv4_server_rec