# 基于 FastDeploy 的模型产线部署 除了 [模型产线推理 Python API 文档](./pipeline_inference_api.md) 中介绍的模型产线部署方案外,PaddleX 还提供基于全场景、多后端推理工具 FastDeploy 的部署方案。基于 FastDeploy 的部署方案支持更多后端,并且提供高性能推理和服务化部署两种部署方式,能够满足更多场景的需求: - **高性能推理**:运行脚本执行推理,或在程序中调用 Python/C++ 的推理 API。旨在实现测试样本的高效输入与模型预测结果的快速获取,特别适用于大规模批量刷库的场景,显著提升数据处理效率。 - **服务化部署**:采用 C/S 架构,以服务形式提供推理能力,客户端可以通过网络请求访问服务,以获取推理结果。 请注意,目前并非所有产线、所有模型都支持基于 FastDeploy 的部署,具体支持情况请参考 [支持 FastDeploy 部署的产线与模型](#支持-FastDeploy-部署的产线与模型)。 ## 操作流程 1. 获取离线部署包。 1. 在 [AIStudio 星河社区](https://aistudio.baidu.com/pipeline/mine) 创建产线,在“选择产线”页面点击“直接部署”。 2. 在“产线部署”页面选择“导出离线部署包”,使用默认的模型方案,点击“导出部署包”。 3. 待部署包导出完毕后,点击“下载离线部署包”,将部署包下载到本地。 4. 点击“生成部署包序列号”,根据页面提示完成设备指纹的获取以及设备指纹与序列号的绑定,确保序列号对应的激活状态为“已激活“。 2. 使用自训练模型替换离线部署包 `model` 目录中的模型。需注意模型与产线模块的对应关系,并且不要修改 `model` 的目录结构。 3. 根据需要选择要使用的部署SDK:`offline_sdk` 目录对应高性能推理SDK,`serving_sdk` 目录对应服务化部署SDK。按照SDK文档(`README.md`)中的说明,完成产线的本地部署。 ## 支持 FastDeploy 部署的产线与模型
| 模型产线 | 产线模块 | 具体模型 |
|---|---|---|
| 通用图像分类 | 图像分类 | CLIP_vit_base_patch16_224 CLIP_vit_large_patch14_224 moreConvNeXt_tiny MobileNetV2_x0_25 MobileNetV2_x0_5 MobileNetV2_x1_0 MobileNetV2_x1_5 MobileNetV2_x2_0 MobileNetV3_large_x0_35 MobileNetV3_large_x0_5 MobileNetV3_large_x0_75 MobileNetV3_large_x1_0 MobileNetV3_large_x1_25 MobileNetV3_small_x0_35 MobileNetV3_small_x0_5 MobileNetV3_small_x0_75 MobileNetV3_small_x1_0 MobileNetV3_small_x1_25 PP-HGNet_small PP-HGNetV2-B0 PP-HGNetV2-B4 PP-HGNetV2-B6 PP-LCNet_x0_25 PP-LCNet_x0_35 PP-LCNet_x0_5 PP-LCNet_x0_75 PP-LCNet_x1_0 PP-LCNet_x1_5 PP-LCNet_x2_0 PP-LCNet_x2_5 ResNet18 ResNet34 ResNet50 ResNet101 ResNet152 |
| 通用目标检测 | 目标检测 | PicoDet-S PicoDet-L morePP-YOLOE_plus-S PP-YOLOE_plus-M PP-YOLOE_plus-L PP-YOLOE_plus-X |
| 通用语义分割 | 语义分割 | OCRNet_HRNet-W48 PP-LiteSeg-T moreDeeplabv3-R50 Deeplabv3-R101 Deeplabv3_Plus-R50 Deeplabv3_Plus-R101 |
| 通用 OCR | 文本检测 | PP-OCRv4_mobile_det PP-OCRv4_server_det |
| 文本识别 | PP-OCRv4_mobile_rec PP-OCRv4_server_rec |