Browse Source

Merge pull request #923 from FlyingQianMM/develop_qh

add meter reader pretrain weights
FlyingQianMM 4 years ago
parent
commit
49f06095f7

+ 2 - 0
dygraph/deploy/cpp/docs/manufacture_sdk/README.md

@@ -112,6 +112,8 @@ version: 1.0.0
 
 ## <h2 id="5">使用Pipeline部署</h2>
 
+在部署之前,请确保已经进行了部署模型导出步骤。如果没有,请参考文档[部署模型导出](https://github.com/PaddlePaddle/PaddleX/blob/develop/dygraph/docs/apis/export_model.md)完成部署模型的导出。
+
 我们在SDK下载包里放置了demo目录,下面以该demo为例讲解如何使用Pipeline部署。
 
 一. 代码调用 —— 只需关注这几个接口: 初始化、设置输入、推理运行、获取输出 (demo/pipeline_infer.cpp)

+ 10 - 1
dygraph/examples/meter_reader/README.md

@@ -343,9 +343,18 @@ paddlex --export_inference --model_dir=output/ppyolov2_r50vd_dcn/best_model --sa
 paddlex --export_inference --model_dir=output/deeplabv3p_r50vd/best_model --save_dir=meter_seg_model
 ```
 
+如果部署时需要使用TensorRT,导出模型的时候需要固定模型的输入大小,具体导出流程参考[部署模型导出](https://github.com/PaddlePaddle/PaddleX/blob/develop/dygraph/docs/apis/export_model.md)。
+
 ## <h2 id="8">8 Windows环境下模型部署</h2>
 
-我们在上一步已经将模型导出为静态图格式了,现在可以开始部署了。这里我们基于[PaddleX Manufature SDK](https://github.com/PaddlePaddle/PaddleX/tree/develop/dygraph/deploy/cpp/docs/manufacture_sdk)进行部署。
+我们在上一步已经将模型导出为静态图格式了,现在可以开始部署了。如果不想运行前面的训练步骤,也可以下载我们训练好并已经导出成静态图格式的模型进行下面的部署流程:
+
+| 表计检测预训练模型 | 刻度和指针分割预训练模型 |
+| -- | -- |
+| [meter_det_model](https://bj.bcebos.com/paddlex/examples2/meter_reader/meter_det_model.tar.gz) | [meter_seg_model](https://bj.bcebos.com/paddlex/examples2/meter_reader//meter_seg_model.tar.gz) |
+
+
+这里我们基于[PaddleX Manufature SDK](https://github.com/PaddlePaddle/PaddleX/tree/develop/dygraph/deploy/cpp/docs/manufacture_sdk)进行部署。
 
 ### 环境依赖