| 123456789101112131415161718192021222324252627282930313233343536373839404142434445 |
- # 是否使用GPU(即是否使用 CUDA)
- WITH_GPU=OFF
- # 使用MKL or openblas
- WITH_MKL=ON
- # 是否集成 TensorRT(仅WITH_GPU=ON 有效)
- WITH_TENSORRT=OFF
- # TensorRT 的路径
- TENSORRT_DIR=/path/to/TensorRT/
- # Paddle 预测库路径
- PADDLE_DIR=/docker/jiangjiajun/PaddleDetection/deploy/cpp/fluid_inference
- # Paddle 的预测库是否使用静态库来编译
- # 使用TensorRT时,Paddle的预测库通常为动态库
- WITH_STATIC_LIB=OFF
- # CUDA 的 lib 路径
- CUDA_LIB=/usr/local/cuda/lib64
- # CUDNN 的 lib 路径
- CUDNN_LIB=/usr/local/cuda/lib64
- # 是否加载加密后的模型
- WITH_ENCRYPTION=ON
- # 加密工具的路径, 如果使用自带预编译版本可不修改
- sh $(pwd)/scripts/bootstrap.sh # 下载预编译版本的加密工具
- ENCRYPTION_DIR=$(pwd)/paddlex-encryption
- # OPENCV 路径, 如果使用自带预编译版本可不修改
- sh $(pwd)/scripts/bootstrap.sh # 下载预编译版本的opencv
- OPENCV_DIR=$(pwd)/deps/opencv3gcc4.8/
- # 以下无需改动
- rm -rf build
- mkdir -p build
- cd build
- cmake .. \
- -DWITH_GPU=${WITH_GPU} \
- -DWITH_MKL=${WITH_MKL} \
- -DWITH_TENSORRT=${WITH_TENSORRT} \
- -DWITH_ENCRYPTION=${WITH_ENCRYPTION} \
- -DTENSORRT_DIR=${TENSORRT_DIR} \
- -DPADDLE_DIR=${PADDLE_DIR} \
- -DWITH_STATIC_LIB=${WITH_STATIC_LIB} \
- -DCUDA_LIB=${CUDA_LIB} \
- -DCUDNN_LIB=${CUDNN_LIB} \
- -DENCRYPTION_DIR=${ENCRYPTION_DIR} \
- -DOPENCV_DIR=${OPENCV_DIR}
- make
|