jetson_build.sh 1.1 KB

123456789101112131415161718192021222324252627282930313233343536373839
  1. # 是否使用GPU(即是否使用 CUDA)
  2. WITH_GPU=ON
  3. # 使用MKL or openblas
  4. WITH_MKL=OFF
  5. # 是否集成 TensorRT(仅WITH_GPU=ON 有效)
  6. WITH_PADDLE_TENSORRT=OFF
  7. # TensorRT 的路径,如果需要集成TensorRT,需修改为您实际安装的TensorRT路径
  8. TENSORRT_DIR=$(pwd)/TensorRT/
  9. # Paddle 预测库路径, 请修改为您实际安装的预测库路径
  10. PADDLE_DIR=$(pwd)/paddle_inference
  11. # Paddle 的预测库是否使用静态库来编译
  12. # 使用TensorRT时,Paddle的预测库通常为动态库
  13. WITH_STATIC_LIB=OFF
  14. # CUDA 的 lib 路径
  15. CUDA_LIB=/usr/local/cuda/lib64
  16. # CUDNN 的 lib 路径
  17. CUDNN_LIB=/usr/lib/aarch64-linux-gnu
  18. # 是否加密
  19. WITH_ENCRYPTION=OFF
  20. # OPENSSL 路径
  21. OPENSSL_DIR=$(pwd)/deps/openssl-1.1.0k
  22. # 以下无需改动
  23. rm -rf build
  24. mkdir -p build
  25. cd build
  26. sudo cmake .. \
  27. -DWITH_GPU=${WITH_GPU} \
  28. -DWITH_MKL=${WITH_MKL} \
  29. -DWITH_PADDLE_TENSORRT=${WITH_PADDLE_TENSORRT} \
  30. -DTENSORRT_DIR=${TENSORRT_DIR} \
  31. -DPADDLE_DIR=${PADDLE_DIR} \
  32. -DWITH_STATIC_LIB=${WITH_STATIC_LIB} \
  33. -DCUDA_LIB=${CUDA_LIB} \
  34. -DCUDNN_LIB=${CUDNN_LIB} \
  35. -DWITH_ENCRYPTION=${WITH_ENCRYPTION} \
  36. -DOPENSSL_DIR=${OPENSSL_DIR}
  37. make -j8