README.md 4.0 KB

兼容并包的PaddleX-Inference部署方式

在新版本的PaddleX中,对于CPP的部署代码方式做了非常大的变化:

  • 支持用户将PaddleDetection PaddleSeg PaddleClas训练出来的模型通过一套部署代码实现快速部署,实现了多个模型的打通。
  • 对于一个视觉任务里面既有检测,又有分割来说,极大的简化了使用的流程。
  • 提供了更好用的tensorRT加速的使用方式。

下面我们具体以Windows系统为例,基于PaddleX的这套CPP,说明一下如何实现工业化的部署(trt加速)

项目使用环境说明:

  • CUDA10.2 Cudnn 7.6
  • opencv版本3.4.6
  • PaddleInference 10.2的预测库
  • TensorRT 7.0.0
  • Cmake 3.5
  • VS2019 社区版

## 1 环境准备

  • 下载好PaddleX代码和PaddleInference预测库
  • 下载Tensorrt,并设置系统环境变量 在本项目中使用的cuda版本是10.2,下载对应的trt版本
  • 为了便于项目管理,将所有的文件汇总到一个文件夹中
  • 设置OpenCV系统环境变量

2 代码编译

  • 使用Cmake进行编译,我们主要对PaddleX/deploy/cpp中代码进行编译,并创建out文件夹用来承接编译生成的内容,
  • 点击Configure进行选项

  • 选择X64,并点击finish

  • 点击Generate进行生成,此时生成失败,

  • 用户在这里补充opencv tensorrt paddle预测库,cuda的lib库的路径,并且勾选WITH_GPU WITH_MKL WITH_TENSORRT 几项然后重新进行生成

  • 最终在out文件夹中出现了.sln文件,则表示通过cmake生成成功了解决方案

  • 打开sln文件,会发现在PaddleDeploy目录下生成了7个项目,其中关键的是

batch_infer

model_infer

multi_gpu_model_infer

tensorrt_infer

3 生成dll

3.1 修改cmakelists

### 3.2 修改model_infer.cpp并重新生成dll * 修改后的model_infer.cpp已经提供,请用paddleX/examples/C#_deploy/model_infer.cpp文件替换PaddleX/deploy/cpp/demo/model_infer.cpp ### 3.3 创建一个c#项目并调用dll * 目前已经给出了C#项目,支持支持PaddleX PaddleClas PaddleDetection PaddleSeg的模型去预测,为了方便大家使用,提供了在单张图片/多张图片/视频流预测形式。支持实时显示预测时间,支持预测GPU和CPU分别预测。 * 用户只需要运行.sln文件即可呈现如下文件形式:
  • 用户选择Debug X64模式进行调式

  • 用户在使用预测之前需要自行下载opencvsharp 方式:工具-NuGet包管理工具器,选择搜索下载opencvcharp

  • 如下为预测结果显示

分类:

目标检测:
语义分割: