syyxsxx 5 years ago
parent
commit
40f521983a

+ 2 - 2
deploy/cpp/include/paddlex/paddlex.h

@@ -70,8 +70,8 @@ class Model {
    * @param model_dir: the directory which contains model.yml
    * @param use_gpu: use gpu or not when infering
    * @param use_trt: use Tensor RT or not when infering
-   * @param use_trt: use mkl or not when infering
-   * @param mkl_thread_num: the threads of mkl when infering
+   * @param use_mkl: use mkl or not when infering
+   * @param mkl_thread_num: number of threads for mkldnn when infering
    * @param gpu_id: the id of gpu when infering with using gpu
    * @param key: the key of encryption when using encrypted model
    * @param use_ir_optim: use ir optimization when infering

+ 0 - 1
deploy/raspberry/cmake/yaml-cpp.cmake

@@ -1,4 +1,3 @@
-find_package(Git REQUIRED)
 
 include(ExternalProject)
 

+ 1 - 1
docs/deploy/openvino/export_openvino_model.md

@@ -35,4 +35,4 @@ python convertor.py --model_dir /path/to/inference_model --save_dir /path/to/ope
 | --data type(option)  | FP32、FP16,默认为FP32,VPU下的IR需要为FP16 |  
 **注意**:
 - 由于OpenVINO不支持ONNX的resize-11 OP的原因,目前还不支持Paddle的分割模型
-- yoloV3模型paddle->OpenVINO后,OpenVINO输出的box包含了background
+- YOLOv3在通过OpenVINO部署时,由于OpenVINO对ONNX OP的支持限制,我们在将YOLOv3的Paddle模型导出时,对最后一层multiclass_nms进行了特殊处理,导出的ONNX模型,最终输出的Box结果包括背景类别(而Paddle模型不包含),此处在OpenVINO的部署代码中,我们通过后处理过滤了背景类别。