本文档指引用户如何采用更高性能地方式来部署使用PaddleX训练的模型。使用本文档模型部署方式,会在模型运算过程中,对模型计算图进行优化,同时减少内存操作,相对比普通的paddlepaddle模型加载和预测方式,预测速度平均可提升1倍,具体各模型性能对比见预测性能对比
在服务端部署的模型需要首先将模型导出为inference格式模型,导出的模型将包括__model__、__params__和model.yml三个文名,分别为模型的网络结构,模型权重和模型的配置文件(包括数据预处理参数等等)。在安装完PaddleX后,在命令行终端使用如下命令导出模型到当前目录inferece_model下。
可直接下载垃圾检测模型测试本文档的流程garbage_epoch_12.tar.gz
paddlex --export_inference --model_dir=./garbage_epoch_12 --save_dir=./inference_model
PaddleX已经集成了基于Python的高性能预测接口,在安装PaddleX后,可参照如下代码示例,进行预测。相关的接口文档可参考paddlex.deploy
点击下载测试图片 garbage.bmp
import paddlex as pdx predictorpdx.deploy.create_predictor('./inference_model') result = predictor.predict(image='garbage.bmp')
C++部署方案正在整理中,即将开源...
| 模型 | AnalysisPredictor耗时 | Executor耗时 | 输入图像大小 |
|---|---|---|---|
| resnet50 | 4.84 | 7.57 | 224*224 |
| mobilenet_v2 | 3.27 | 5.76 | 224*224 |
| unet | 22.51 | 34.60 | 513*513 |
| deeplab_mobile | 63.44 | 358.31 | 1025*2049 |
| yolo_mobilenetv2 | 15.20 | 19.54 | 608*608 |
| faster_rcnn_r50_fpn_1x | 50.05 | 69.58 | 800*1088 |
| faster_rcnn_r50_1x | 326.11 | 347.22 | 800*1067 |
| mask_rcnn_r50_fpn_1x | 67.49 | 91.02 | 800*1088 |
| mask_rcnn_r50_1x | 326.11 | 350.94 | 800*1067 |
Lite模型导出正在集成中,即将开源...