在实际生产环境中,许多应用对部署策略的性能指标(尤其是响应速度)有着较严苛的标准,以确保系统的高效运行与用户体验的流畅性。为此,PaddleX 提供高性能推理插件,旨在对模型推理及前后处理进行深度性能优化,实现端到端流程的显著提速。本文档将首先介绍高性能推理插件的安装和使用方式,然后列举目前支持使用高性能推理插件的产线与模型。
使用高性能推理插件前,请确保您已经按照PaddleX本地安装教程 完成了PaddleX的安装,且按照PaddleX产线命令行使用说明或PaddleX产线Python脚本使用说明跑通了产线的快速推理。
在下表中根据处理器架构、操作系统、设备类型、Python 版本等信息,找到对应的安装指令并在部署环境中执行。请将 {paddlex 版本号} 替换为实际的 paddlex 的版本号,例如当前最新的稳定版本 3.0.0b2。如果需要使用开发分支对应的版本,请将 {paddlex 版本号} 替换为 0.0.0.dev0。
| 处理器架构 | 操作系统 | 设备类型 | Python 版本 | 安装指令 |
|---|---|---|---|---|
| x86-64 | Linux | CPU | ||
| 3.8 | curl -s https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/deploy/paddlex_hpi/install_script/{paddlex 版本号}/install_paddlex_hpi.py | python3.8 - --arch x86_64 --os linux --device cpu --py 38 | |||
| 3.9 | curl -s https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/deploy/paddlex_hpi/install_script/{paddlex 版本号}/install_paddlex_hpi.py | python3.9 - --arch x86_64 --os linux --device cpu --py 39 | |||
| 3.10 | curl -s https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/deploy/paddlex_hpi/install_script/{paddlex 版本号}/install_paddlex_hpi.py | python3.10 - --arch x86_64 --os linux --device cpu --py 310 | |||
| GPU (CUDA 11.8 + cuDNN 8.6) | 3.8 | curl -s https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/deploy/paddlex_hpi/install_script/{paddlex 版本号}/install_paddlex_hpi.py | python3.8 - --arch x86_64 --os linux --device gpu_cuda118_cudnn86 --py 38 | ||
| 3.9 | curl -s https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/deploy/paddlex_hpi/install_script/{paddlex 版本号}/install_paddlex_hpi.py | python3.9 - --arch x86_64 --os linux --device gpu_cuda118_cudnn86 --py 39 | |||
| 3.10 | curl -s https://paddle-model-ecology.bj.bcebos.com/paddlex/PaddleX3.0/deploy/paddlex_hpi/install_script/{paddlex 版本号}/install_paddlex_hpi.py | python3.10 - --arch x86_64 --os linux --device gpu_cuda118_cudnn86 --py 310 |
在 飞桨AI Studio星河社区-人工智能学习与实训社区 页面的“开源模型产线部署序列号咨询与获取”部分选择“立即获取”,如下图所示:
选择需要部署的产线,并点击“获取”。之后,可以在页面下方的“开源产线部署SDK序列号管理”部分找到获取到的序列号:
使用序列号完成激活后,即可使用高性能推理插件。PaddleX 提供离线激活和在线激活两种方式(均只支持 Linux 系统):
${HOME}/.baidu/paddlex/licenses 目录中(如果目录不存在,需要创建目录),并在使用推理 API 或 CLI 时指定序列号。
请注意:每个序列号只能绑定到唯一的设备指纹,且只能绑定一次。这意味着用户如果使用不同的机器部署模型,则必须为每台机器准备单独的序列号。对于 Linux 系统,如果在 Docker 容器中使用高性能推理插件,请为容器挂载宿主机的 /dev/disk/by-uuid 与 ${HOME}/.baidu/paddlex/licenses 目录。
对于 PaddleX CLI,指定 --use_hpip,并设置序列号,即可启用高性能推理插件。如果希望进行联网激活,在第一次使用序列号时,需指定 --update_license,以通用图像分类产线为例:
paddlex \
--pipeline image_classification \
--input https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_image_classification_001.jpg \
--device gpu:0 \
--use_hpip \
--serial_number {序列号}
# 如果希望进行联网激活
paddlex \
--pipeline image_classification \
--input https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_image_classification_001.jpg \
--device gpu:0 \
--use_hpip \
--serial_number {序列号}
--update_license
对于 PaddleX Python API,启用高性能推理插件的方法类似。仍以通用图像分类产线为例:
from paddlex import create_pipeline
pipeline = create_pipeline(
pipeline="image_classification",
use_hpip=True,
hpi_params={"serial_number": "{序列号}"},
)
output = pipeline.predict("https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_image_classification_001.jpg")
启用高性能推理插件得到的推理结果与未启用插件时一致。对于部分模型,在首次启用高性能推理插件时,可能需要花费较长时间完成推理引擎的构建。PaddleX 将在推理引擎的第一次构建完成后将相关信息缓存在模型目录,并在后续复用缓存中的内容以提升初始化速度。
PaddleX 结合模型信息与运行环境信息为每个模型提供默认的高性能推理配置。这些默认配置经过精心准备,以便在数个常见场景中可用,且能够取得较优的性能。因此,通常用户可能并不用关心如何这些配置的具体细节。然而,由于实际部署环境与需求的多样性,使用默认配置可能无法在特定场景获取理想的性能,甚至可能出现推理失败的情况。对于默认配置无法满足要求的情形,用户可以通过修改模型目录中 inference.yml 文件中 Hpi 字段(如果该字段不存在,需要新增)的方式,手动调整配置。以下列举两种常见的情形:
更换推理后端:
当默认的推理后端不可用时,需要手动更换推理后端。用户需要修改 selected_backends 字段(如果不存在,需要新增)。
Hpi:
...
selected_backends:
cpu: paddle_infer
gpu: onnx_runtime
...
其中每一项均按照 {设备类型}: {推理后端名称} 的格式填写。
目前所有可选的推理后端如下:
paddle_infer:Paddle Inference 推理引擎。支持 CPU 和 GPU。相比 PaddleX 快速推理,高性能推理插件支持以集成 TensorRT 子图的方式提升模型的 GPU 推理性能。openvino:OpenVINO,Intel 提供的深度学习推理工具,优化了多种 Intel 硬件上的模型推理性能。仅支持 CPU。高性能推理插件自动将模型转换为 ONNX 格式后用该引擎推理。onnx_runtime:ONNX Runtime,跨平台、高性能的推理引擎。支持 CPU 和 GPU。高性能推理插件自动将模型转换为 ONNX 格式后用该引擎推理。tensorrt:TensorRT,NVIDIA 提供的高性能深度学习推理库,针对 NVIDIA GPU 进行优化以提升速度。仅支持 GPU。高性能推理插件自动将模型转换为 ONNX 格式后用该引擎推理。修改 Paddle Inference 或 TensorRT 的动态形状配置:
动态形状是 TensorRT 延迟指定部分或全部张量维度直到运行时的能力。当默认的动态形状配置无法满足需求(例如,模型可能需要范围外的输入形状),用户需要修改状推理后端配置中的 trt_dynamic_shapes 或 dynamic_shapes 字段:
Hpi:
...
backend_configs:
# Paddle Inference 后端配置
paddle_infer:
...
trt_dynamic_shapes:
x:
- [1, 3, 300, 300]
- [4, 3, 300, 300]
- [32, 3, 1200, 1200]
...
# TensorRT 后端配置
tensorrt:
...
dynamic_shapes:
x:
- [1, 3, 300, 300]
- [4, 3, 300, 300]
- [32, 3, 1200, 1200]
...
在 trt_dynamic_shapes 或 dynamic_shapes 中,需要为每一个输入张量指定动态形状,格式为:{输入张量名称}: [{最小形状}, [{最优形状}], [{最大形状}]]。有关最小形状、最优形状以及最大形状的相关介绍及更多细节,请参考 TensorRT 官方文档。
在完成修改后,请删除模型目录中的缓存文件(shape_range_info.pbtxt 与 trt_serialized 开头的文件)。
| 模型产线 | 产线模块 | 模型支持情况 |
|---|---|---|
| 通用OCR | 文本检测 | ✅ |
| 文本识别 | ✅ | |
| 文档场景信息抽取v3 | 表格识别 | ✅ |
| 版面区域检测 | ✅ | |
| 文本检测 | ✅ | |
| 文本识别 | ✅ | |
| 印章文本检测 | ✅ | |
| 文本图像矫正 | ✅ | |
| 文档图像方向分类 | ✅ | |
| 通用表格识别 | 版面区域检测 | ✅ |
| 表格识别 | ✅ | |
| 文本检测 | ✅ | |
| 文本识别 | ✅ | |
| 通用目标检测 | 目标检测 | FasterRCNN-Swin-Tiny-FPN ❌ | CenterNet-DLA-34 ❌