# 兼容并包的PaddleX-Inference部署方式 在新版本的PaddleX中,对于CPP的部署代码方式做了非常大的变化: * 支持用户将PaddleDetection PaddleSeg PaddleClas训练出来的模型通过一套部署代码实现快速部署,实现了多个模型的打通。 * 对于一个视觉任务里面既有检测,又有分割来说,极大的简化了使用的流程。 * 提供了更好用的tensorRT加速的使用方式。 下面我们具体以Windows系统为例,基于PaddleX的这套CPP,说明一下如何实现工业化的部署(trt加速) 项目使用环境说明: * CUDA10.2 Cudnn 7.6 * opencv版本3.4.6 * PaddleInference 10.2的预测库 * TensorRT 7.0.0 * Cmake 3.5 * VS2019 社区版 ## 1 环境准备 * 下载好PaddleX代码和PaddleInference预测库 * 下载Tensorrt,并设置系统环境变量 在本项目中使用的cuda版本是10.2,下载对应的trt版本 * 为了便于项目管理,将所有的文件汇总到一个文件夹中
* 设置OpenCV系统环境变量
## 2 代码编译 * 使用Cmake进行编译,我们主要对`PaddleX/deploy/cpp`中代码进行编译,并创建`out`文件夹用来承接编译生成的内容,
* 点击Configure进行选项
* 选择X64,并点击finish
* 点击Generate进行生成,此时生成失败,
* 用户在这里补充opencv tensorrt paddle预测库,cuda的lib库的路径,并且勾选WITH_GPU WITH_MKL WITH_TENSORRT 几项然后重新进行生成
* 最终在out文件夹中出现了.sln文件,则表示通过cmake生成成功了解决方案 * 打开sln文件,会发现在PaddleDeploy目录下生成了7个项目,其中关键的是 `batch_infer` `model_infer` `multi_gpu_model_infer` `tensorrt_infer`
## 3 生成dll ### 3.1 修改cmakelists
### 3.2 修改model_infer.cpp并重新生成dll * 修改后的model_infer.cpp已经提供,请用paddleX/examples/C#_deploy/model_infer.cpp文件替换PaddleX/deploy/cpp/demo/model_infer.cpp ### 3.3 创建一个c#项目并调用dll * 目前已经给出了C#项目,支持支持PaddleX PaddleClas PaddleDetection PaddleSeg的模型去预测,为了方便大家使用,提供了在单张图片/多张图片/视频流预测形式。支持实时显示预测时间,支持预测GPU和CPU分别预测。 * 用户只需要运行.sln文件即可呈现如下文件形式:
* 用户选择Debug X64模式进行调式 * 用户在使用预测之前需要自行下载opencvsharp 方式:工具-NuGet包管理工具器,选择搜索下载opencvcharp
* 如下为预测结果显示 分类:
目标检测:
语义分割: