Ver código fonte

fix doc buge

syyxsxx 5 anos atrás
pai
commit
3874a90f49

+ 2 - 2
deploy/README.md

@@ -14,5 +14,5 @@
     - [模型量化](../docs/deploy/paddlelite/slim/quant.md)
     - [模型裁剪](../docs/deploy/paddlelite/slim/prune.md)
   - [Android平台](../docs/deploy/paddlelite/android.md)
-- [OpenVINO部署](../docs/develoy/openvino/introduction.md)
-- [树莓派部署](../docs/develop/raspberry/Raspberry.md)
+- [OpenVINO部署](../docs/deploy/openvino/introduction.md)
+- [树莓派部署](../docs/deplop/raspberry/Raspberry.md)

+ 2 - 1
docs/deploy/openvino/introduction.md

@@ -3,6 +3,7 @@ PaddleX支持将训练好的paddle模型通过openvino实现模型的预测加
 
 ## 部署支持情况
 下表提供了PaddleX在不同环境下对使用OpenVINO加速支持情况  
+
 |硬件平台|Linux|Windows|Raspbian OS|c++|python |分类|检测|分割|  
 | ----|  ---- | ---- | ----|  ---- | ---- |---- | ---- |---- |---- | ---- |
 |CPU|支持|支持|不支持|支持|支持|支持|支持|支持|
@@ -17,7 +18,7 @@ PaddleX支持将训练好的paddle模型通过openvino实现模型的预测加
 
 ## 模型转换 
 **模型转换请参考文档[模型转换](./export_openvino_model.md)**  
-**说明**:由于不同软硬件平台下OpenVINO模型转换方法一致,后续文档中不再赘述。
+**说明**:由于不同软硬件平台下OpenVINO模型转换方法一致,模型转换的方法,后续文档中不再赘述。
 
 ## 预测部署
 由于不同软硬下部署OpenVINO实现预测的方式不完全一致,具体请参考:  

+ 6 - 5
docs/deploy/openvino/windows.md

@@ -8,12 +8,12 @@ Windows 平台下,我们使用`Visual Studio 2019 Community` 进行了测试
 * OpenVINO 2020.4
 * CMake 3.0+
 
-**说明**:PaddleX安装请参考[PaddleX](https://paddlex.readthedocs.io/zh_CN/latest/install.html) , OpenVINO安装请参考[OpenVINO-Windows](hhttps://docs.openvinotoolkit.org/latest/openvino_docs_install_guides_installing_openvino_windows.html)  
+**说明**:PaddleX安装请参考[PaddleX](https://paddlex.readthedocs.io/zh_CN/latest/install.html) , OpenVINO安装请参考[OpenVINO-Windows](https://docs.openvinotoolkit.org/latest/openvino_docs_install_guides_installing_openvino_windows.html)  
 
 **注意**:安装完OpenVINO后需要手动添加OpenVINO目录到系统环境变量,否则在运行程序时会出现找不到dll的情况。以OpenVINO不改变OpenVINO安装目录情况下为示例,流程如下
 - 我的电脑->属性->高级系统设置->环境变量
     - 在系统变量中找到Path(如没有,自行创建),并双击编辑
-    - 新建,将OpenVINO以下路径填入并保存:  
+    - 新建,分别将OpenVINO以下路径填入并保存:  
       `C:\Program File (x86)\IntelSWTools\openvino\inference_engine\bin\intel64\Release`  
       `C:\Program File (x86)\IntelSWTools\openvino\inference_engine\external\tbb\bin`  
       `C:\Program File (x86)\IntelSWTools\openvino\deployment_tools\ngraph\lib`  
@@ -55,10 +55,11 @@ git clone https://github.com/PaddlePaddle/PaddleX.git
 |  ----  | ----  |
 | OPENCV_DIR  | opencv库路径 |
 | OPENVINO_DIR | OpenVINO推理库路径,在OpenVINO安装目录下的deployment/inference_engine目录,若未修改OpenVINO默认安装目录可以不用修改 |
-| NGRAPH——LIB | OpenVINO的ngraph库路径,在OpenVINO安装目录下的deployment/ngraph/lib目录,若未修改OpenVINO默认安装目录可以不用修改 |
+| NGRAPH_LIB | OpenVINO的ngraph库路径,在OpenVINO安装目录下的deployment/ngraph/lib目录,若未修改OpenVINO默认安装目录可以不用修改 |
 | GFLAGS_DIR | gflags库路径 |
 | GLOG_DIR  | glog库路径 |
-| WITH_STATIC_LIB | 是否静态编译,默认为True |
+| WITH_STATIC_LIB | 是否静态编译,默认为True |  
+
 **设置完成后**, 点击`保存并生成CMake缓存以加载变量`。
 5. 点击`生成`->`全部生成`
 ### Step5: 预测
@@ -66,7 +67,7 @@ git clone https://github.com/PaddlePaddle/PaddleX.git
 
 ```
 D:
-cd D:\projects\PaddleX\deploy\cpp\out\build\x64-Release
+cd D:\projects\PaddleX\deploy\openvino\out\build\x64-Release
 ```
 
 * 编译成功后,图片预测demo的入口程序为`detector.exe`,`classifier.exe`,`segmenter.exe`,用户可根据自己的模型类型选择,其主要命令参数说明如下:

+ 2 - 0
docs/deploy/raspberry/export_nb_model.md

@@ -17,6 +17,8 @@ Paddle-Lite模型需要通过Paddle-Lite的opt工具转出模型,下载并解
 | --param_file  | 导出inference模型中包含的参数文件:`__params__`所在的路径|
 | --valid_targets  |指定模型可执行的backend,这里请指定为`arm`|
 | --optimize_out_type | 输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化,这里请指定为`naive_buffer`|  
+
+
 若安装了python版本的Paddle-Lite也可以通过如下方式转换
 ``` 
 ./paddle_lite_opt --model_file=<model_path> \

+ 11 - 0
docs/deploy/raspberry/index.rst

@@ -0,0 +1,11 @@
+树莓派部署
+=======================================
+
+
+.. toctree::
+   :maxdepth: 2
+   :caption: 文档目录:
+
+   Raspberry.md
+   python.md
+   export_nb_model.md