build.sh 1.6 KB

12345678910111213141516171819202122232425262728293031323334353637383940414243444546
  1. # 是否使用GPU(即是否使用 CUDA)
  2. WITH_GPU=ON
  3. # 使用MKL or openblas
  4. WITH_MKL=ON
  5. # 是否集成 TensorRT(仅WITH_GPU=ON 有效)
  6. WITH_TENSORRT=OFF
  7. # TensorRT 的路径,如果需要集成TensorRT,需修改为您实际安装的TensorRT路径
  8. TENSORRT_DIR=/root/projects/TensorRT/
  9. # Paddle 预测库路径, 请修改为您实际安装的预测库路径
  10. #PADDLE_DIR=/rrpn/my/qh_PaddleX/PaddleX/deploy/cpp/fluid_inference
  11. PADDLE_DIR=/rrpn/my/PaddleX/deploy/cpp/fluid_inference
  12. # Paddle 的预测库是否使用静态库来编译
  13. # 使用TensorRT时,Paddle的预测库通常为动态库
  14. WITH_STATIC_LIB=OFF
  15. # CUDA 的 lib 路径
  16. CUDA_LIB=/usr/local/cuda/lib64
  17. # CUDNN 的 lib 路径
  18. CUDNN_LIB=/usr/lib/x86_64-linux-gnu/
  19. # 是否加载加密后的模型
  20. WITH_ENCRYPTION=ON
  21. # 加密工具的路径, 如果使用自带预编译版本可不修改
  22. sh $(pwd)/scripts/bootstrap.sh # 下载预编译版本的加密工具
  23. ENCRYPTION_DIR=$(pwd)/paddlex-encryption
  24. # OPENCV 路径, 如果使用自带预编译版本可不修改
  25. sh $(pwd)/scripts/bootstrap.sh # 下载预编译版本的opencv
  26. OPENCV_DIR=$(pwd)/deps/opencv3.4.6gcc4.8ffmpeg/
  27. # 以下无需改动
  28. rm -rf build
  29. mkdir -p build
  30. cd build
  31. cmake .. \
  32. -DWITH_GPU=${WITH_GPU} \
  33. -DWITH_MKL=${WITH_MKL} \
  34. -DWITH_TENSORRT=${WITH_TENSORRT} \
  35. -DWITH_ENCRYPTION=${WITH_ENCRYPTION} \
  36. -DTENSORRT_DIR=${TENSORRT_DIR} \
  37. -DPADDLE_DIR=${PADDLE_DIR} \
  38. -DWITH_STATIC_LIB=${WITH_STATIC_LIB} \
  39. -DCUDA_LIB=${CUDA_LIB} \
  40. -DCUDNN_LIB=${CUDNN_LIB} \
  41. -DENCRYPTION_DIR=${ENCRYPTION_DIR} \
  42. -DOPENCV_DIR=${OPENCV_DIR}
  43. make