# 基于PaddleInference的推理-Jetson环境编译 本文档指引用户如何基于PaddleInference在Jetson平台上对飞桨模型进行推理,并编译执行。 ## 环境依赖 gcc >= 5.4.0 cmake >= 3.5.1 (Jetson环境下)Ubuntu 16.04/18.04 ## 编译步骤 ### Step1: 获取部署代码 ``` git clone https://github.com/PaddlePaddle/PaddleX.git cd PaddleX/deploy/cpp ``` **说明**:`C++`预测代码在`PaddleX/deploy/cpp` 目录,该目录不依赖任何`PaddleX`下其他目录。所有的公共实现代码在`model_deploy`目录下,所有示例代码都在`demo`目录下。 > 也可手动下载完整的`PaddleX`,进行离线安装(接下来的步骤都相通) ### Step 2. 下载Jetson下PaddlePaddle C++ 预编译预测库 PaddlePaddle C++ 预测库针对是否使用GPU、是否支持TensorRT、以及不同的CUDA版本提供了已经编译好的预测库,目前PaddleX支持Paddle预测库2.0+,最新2.1版本下载链接如下所示: | 版本说明 | 预测库(2.1) | 编译器 | | -------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------- | ------- | | Jetpack4.4: nv-jetson-cuda10.2-cudnn8-trt7(all) | [paddle_inference.tgz](https://paddle-inference-lib.bj.bcebos.com/2.1.1-nv-jetson-jetpack4.4-all/paddle_inference_install_dir.tgz) | gcc 8.2 | | Jetpack4.4: nv-jetson-cuda10.2-cudnn8-trt7(nano) | [ paddle_inference.tgz](https://paddle-inference-lib.bj.bcebos.com/2.1.1-nv-jetson-jetpack4.4-nano/paddle_inference_install_dir.tgz) | gcc 8.2 | | Jetpack4.4: nv-jetson-cuda10.2-cudnn8-trt7(tx2) | [ paddle_inference.tgz](https://paddle-inference-lib.bj.bcebos.com/2.1.1-nv-jetson-jetpack4.4-tx2/paddle_inference_install_dir.tgz) | gcc 8.2 | | Jetpack4.4: nv-jetson-cuda10.2-cudnn8-trt7(xavier) | [ paddle_inference.tgz](https://paddle-inference-lib.bj.bcebos.com/2.1.1-nv-jetson-jetpack4.4-xavier/paddle_inference_install_dir.tgz) | gcc 8.2 | 请根据实际情况选择下载,如若以上版本不满足您的需求,请至[C++预测库下载列表](https://paddleinference.paddlepaddle.org.cn/v2.1/user_guides/download_lib.html)选择符合的版本。 将预测库解压后,其所在目录(例如解压至`PaddleX/deploy/cpp/paddle_inferenc/`)下主要包含的内容有: ``` |—— CmakeCache.txt | ├── paddle/ # paddle核心库和头文件 | ├── third_party # 第三方依赖库和头文件 | └── version.txt # 版本和编译信息(里边有编译时gcc、cuda、cudnn的版本信息) ```