FlyingQianMM a8dc155ffb move dygraph in docs 4 anos atrás
..
images ecefcd9c2b mv dygraph to home directory 4 anos atrás
Program.cs a8dc155ffb move dygraph in docs 4 anos atrás
README.md a8dc155ffb move dygraph in docs 4 anos atrás
model_infer.cpp 52a214ddac add paddlex.png 4 anos atrás

README.md

兼容并包的PaddleX-Inference部署方式

在新版本的PaddleX中,对于CPP的部署代码方式做了非常大的变化:

  • 支持用户将PaddleDetection PaddleSeg PaddleClas训练出来的模型通过一套部署代码实现快速部署,实现了多个模型的打通。
  • 对于一个视觉任务里面既有检测,又有分割来说,极大的简化了使用的流程。
  • 提供了更好用的tensorRT加速的使用方式。

下面我们具体以Windows系统为例,基于PaddleX的这套CPP,说明一下如何实现工业化的部署(trt加速)

项目使用环境说明:

  • CUDA10.2 Cudnn 7.6
  • opencv版本3.4.6
  • PaddleInference 10.2的预测库
  • TensorRT 7.0.0
  • Cmake 3.5
  • VS2019 社区版

## 1 环境准备

  • 下载opencv,并设置系统环境变量
  • 下载Tensorrt,并设置系统环境变量 在本项目中使用的cuda版本是10.2,下载对应的trt版本

2 代码编译

下载好PaddleX代码

git clone https://github.com/PaddlePaddle/PaddleX
cd PaddleX

使用Cmake进行编译,我们主要对PaddleX/deploy/cpp中代码进行编译,并创建out文件夹用来承接编译生成的内容,

点击Configure进行选项筛选,并选择X64一项,并点击finish

在运行上述步骤后,出现报错,并在空白区域出现待补充的内容。

用户在这里补充opencv tensorrt paddle预测库,cuda的lib库的路径,并且勾选WITH_GPU WITH_MKL WITH_TENSORRT 几项然后重新进行生成

依次点击修改

最终在out文件夹中出现了.sln文件,则表示通过cmake生成成功了解决方案
打开sln文件,会发现在PaddleDeploy目录下生成了7个项目,其中关键的是 `batch_infer` `model_infer` `multi_gpu_model_infer` `tensorrt_infer`

3 生成dll

3.1 修改cmakelists

3.2 修改model_infer.cpp并重新生成dll

3.3 创建一个c#项目并调用dll

默认已经创建好了一个c#项目。

  • 将前面生成的dll拷贝到C#项目中
  • 3.4 执行C#项目去预测

C#项目中的Program.cs代码已经提供,位于Program.cs。执行运行后得到预测结果如下: