jiangjiajun 5 жил өмнө
parent
commit
597d7d7fb6
100 өөрчлөгдсөн 536 нэмэгдсэн , 166 устгасан
  1. 68 0
      docs/FAQ.md
  2. 11 0
      docs/README.md
  3. 38 0
      docs/apis/deploy.md
  4. 2 1
      docs/apis/index.rst
  5. 0 12
      docs/change_log.md
  6. 132 0
      docs/cv_solutions.md
  7. 0 1
      docs/data/annotation/classification.md
  8. 0 1
      docs/data/annotation/conversion.md
  9. 0 13
      docs/data/annotation/index.rst
  10. 0 1
      docs/data/annotation/instance_segmentation.md
  11. 0 1
      docs/data/annotation/object_detection.md
  12. 0 1
      docs/data/annotation/semantic_segmentation.md
  13. 0 1
      docs/data/format/classification.md
  14. 0 1
      docs/data/format/detection.md
  15. 0 11
      docs/data/format/index.rst
  16. 0 1
      docs/data/format/segmentation.md
  17. 0 10
      docs/data/index.rst
  18. 2 0
      docs/datasets.md
  19. 0 12
      docs/deploy/index.rst
  20. 0 1
      docs/deploy/nvidia-jetson.md
  21. 0 11
      docs/deploy/openvino/index.rst
  22. 0 1
      docs/deploy/openvino/intel_movidius.md
  23. 0 1
      docs/deploy/openvino/linux.md
  24. 0 1
      docs/deploy/openvino/windows.md
  25. 0 1
      docs/deploy/paddlelite/android.md
  26. 0 10
      docs/deploy/paddlelite/index.rst
  27. 0 1
      docs/deploy/paddlelite/slim/prune.md
  28. 0 1
      docs/deploy/paddlelite/slim/quant.md
  29. 0 1
      docs/deploy/server/encrytion.md
  30. 0 11
      docs/deploy/server/index.rst
  31. 0 1
      docs/deploy/server/linux.md
  32. 0 1
      docs/deploy/server/windows.md
  33. 0 5
      docs/examples/human_segmentation/index.rst
  34. 0 12
      docs/examples/index.rst
  35. 0 5
      docs/examples/meter_reading/index.rst
  36. 0 5
      docs/examples/remote_sensing/index.rst
  37. 0 1
      docs/examples/solutions.md
  38. BIN
      docs/images/00_loaddata.png
  39. BIN
      docs/images/01_datasplit.png
  40. BIN
      docs/images/02_newproject.png
  41. BIN
      docs/images/03_choosedata.png
  42. BIN
      docs/images/04_parameter.png
  43. BIN
      docs/images/05_train.png
  44. BIN
      docs/images/06_VisualDL.png
  45. BIN
      docs/images/07_evaluate.png
  46. BIN
      docs/images/08_deploy.png
  47. BIN
      docs/images/PaddleX-Pipe-Line.png
  48. BIN
      docs/images/QQGroup.jpeg
  49. BIN
      docs/images/anaconda_windows.png
  50. BIN
      docs/images/cls_eval.png
  51. BIN
      docs/images/cls_train.png
  52. BIN
      docs/images/faster_eval.png
  53. BIN
      docs/images/faster_train.png
  54. BIN
      docs/images/garbage.bmp
  55. BIN
      docs/images/image_classification.png
  56. BIN
      docs/images/instance_segmentation.png
  57. BIN
      docs/images/lime.png
  58. BIN
      docs/images/mask_eval.png
  59. BIN
      docs/images/mask_train.png
  60. BIN
      docs/images/normlime.png
  61. BIN
      docs/images/object_detection.png
  62. BIN
      docs/images/paddlex.jpg
  63. BIN
      docs/images/paddlex.png
  64. BIN
      docs/images/seg_eval.png
  65. BIN
      docs/images/seg_train.png
  66. BIN
      docs/images/semantic_segmentation.png
  67. BIN
      docs/images/vdl1.jpg
  68. BIN
      docs/images/vdl2.jpg
  69. BIN
      docs/images/vdl3.jpg
  70. BIN
      docs/images/visualized_deeplab.jpg
  71. BIN
      docs/images/visualized_fasterrcnn.jpg
  72. BIN
      docs/images/visualized_maskrcnn.jpeg
  73. BIN
      docs/images/voc_eval.png
  74. BIN
      docs/images/yolo_train.png
  75. 14 9
      docs/index.rst
  76. 1 0
      docs/metrics.md
  77. 1 0
      docs/model_zoo.md
  78. 27 0
      docs/paddlex_gui/download.md
  79. 148 0
      docs/paddlex_gui/how_to_use.md
  80. BIN
      docs/paddlex_gui/images/QR.jpg
  81. 1 0
      docs/paddlex_gui/images/ReadMe
  82. BIN
      docs/paddlex_gui/images/dataset2.jpg
  83. BIN
      docs/paddlex_gui/images/datasets1.jpg
  84. BIN
      docs/paddlex_gui/images/project1.jpg
  85. BIN
      docs/paddlex_gui/images/project2.jpg
  86. BIN
      docs/paddlex_gui/images/project3.jpg
  87. BIN
      docs/paddlex_gui/images/publish.jpg
  88. BIN
      docs/paddlex_gui/images/visualization1.jpg
  89. BIN
      docs/paddlex_gui/images/visualization2.jpg
  90. BIN
      docs/paddlex_gui/images/visualization3.jpg
  91. BIN
      docs/paddlex_gui/images/visualization4.jpg
  92. BIN
      docs/paddlex_gui/images/visualization5.jpg
  93. 4 1
      docs/paddlex_gui/index.rst
  94. 1 0
      docs/paddlex_gui/xx.md
  95. 1 3
      docs/slim/index.rst
  96. 54 0
      docs/slim/prune.md
  97. 11 0
      docs/slim/quant.md
  98. 20 0
      docs/test.cpp
  99. 0 1
      docs/train/classification.md
  100. 0 15
      docs/train/index.rst

+ 68 - 0
docs/FAQ.md

@@ -0,0 +1,68 @@
+# 常见问题
+
+## 1. 训练参数如何调整
+> 参考[参数调整文档](appendix/parameters.md)
+
+## 2. 训练过程因显存不够出错
+
+> 通过使用在终端`nvidia-smi`命令,查看GPU是否被其它任务占用,尝试清除其它任务;  
+> 调低训练时的`batch_size`参数,从而降低显存的要求,注意需等比例调低`learning_rate`等参数;
+> 选用更小的模型或backbone。
+
+## 3. 是否有更小的模型,适用于更低配置的设备上运行
+> 可以使用模型裁剪,参考文档[模型裁剪使用教程](slim/prune.md),通过调整裁剪参数,可以控制模型裁剪后的大小,在实际实验中,如VOC检测数据,使用yolov3-mobilenet,原模型大小为XXM,裁剪后为XX M,精度基本保持不变
+
+## 4. 如何配置训练时GPU的卡数
+> 通过在终端export环境变量,或在Python代码中设置,可参考文档[CPU/多卡GPU训练](appendix/gpu_configure.md)
+
+## 5. 想将之前训练的模型参数上继续训练
+> 在训练调用`train`接口时,将`pretrain_weights`设为之前的模型保存路径即可
+
+
+## 6. PaddleX保存的模型分为正常训练过程中产生、裁剪训练产生、导出为部署模型和量化保存这么多种,有什么差别,怎么区分
+
+**不同模型的功能差异**
+
+>1.正常模型训练保存  
+>
+>>模型在正常训练过程,每间隔n个epoch保存的模型目录,模型可作为预训练模型参数,可使用PaddleX加载预测、或导出部署模型  
+
+>2.裁剪训练保存  
+>
+>>模型在裁剪训练过程,每间隔n个epoch保存的模型目录,模型不可作为预训练模型参数,可使用PaddleX加载预测、或导出部署模型  
+
+>3.导出部署模型  
+>
+>>为了模型在服务端部署,导出的模型目录,不可作为预训练模型参数,可使用PaddleX加载预测
+
+>4.量化保存模型  
+>
+>>为了提升模型预测速度,将模型参数进行量化保存的模型目录,模型不可作为预训练模型参数,可使用PaddleX加载预测  
+
+**区分方法**  
+>> 通过模型目录下model.yml文件中`status`字段来区别不同的模型类型, 'Normal'、'Prune'、'Infer'、'Quant'分别表示正常模型训练保存、裁剪训练保存、导出的部署模型、量化保存模型
+
+
+## 7. 模型训练需要太久时间,或者训练速度太慢,怎么提速
+> 1.模型训练速度与用户选定的模型大小,和设定的`batch_size`相关,模型大小可直接参考[模型库](model_zoo.md)中的指标,一般而言,模型越大,训练速度就越慢;  
+
+> 2.在模型速度之外,模型训练完成所需的时间又与用户设定的`num_epochs`迭代轮数相关,用户可以通过观察模型在验证集上的指标来决定是否提示结束掉训练进程(训练时设定`save_interval_epochs`参数,训练过程会每间隔`save_interval_epochs`轮数在验证集上计算指标,并保存模型);  
+
+## 8. 如何设定迭代的轮数
+> 1. 用户自行训练时,如不确定迭代的轮数,可以将轮数设高一些,同时注意设置`save_interval_epochs`,这样模型迭代每间隔相应轮数就会在验证集上进行评估和保存,可以根据不同轮数模型在验证集上的评估指标,判断模型是否已经收敛,若模型已收敛,可以自行结束训练进程
+>
+## 9. 只有CPU,没有GPU,如何提升训练速度
+> 当没有GPU时,可以根据自己的CPU配置,选择是否使用多CPU进行训练,具体配置方式可以参考文档[多卡CPU/GPU训练](appendix/gpu_configure.md)
+>
+## 10. 电脑不能联网,训练时因为下载预训练模型失败,如何解决
+> 可以预先通过其它方式准备好预训练模型,然后训练时自定义`pretrain_weights`即可,可参考文档[无联网模型训练](how_to_offline_run.md)
+
+## 11. 每次训练新的模型,都需要重新下载预训练模型,怎样可以下载一次就搞定
+> 1.可以按照9的方式来解决这个问题  
+> 2.每次训练前都设定`paddlex.pretrain_dir`路径,如设定`paddlex.pretrain_dir='/usrname/paddlex`,如此下载完的预训练模型会存放至`/usrname/paddlex`目录下,而已经下载在该目录的模型也不会再次重复下载
+
+## 12. PaddleX GUI启动时提示"Failed to execute script PaddleX",如何解决?
+> 1. 请检查目标机器上PaddleX程序所在路径是否包含中文。目前暂不支持中文路径,请尝试将程序移动到英文目录。
+> 2. 如果您的系统是Windows 7或者Windows Server 2012时,原因是缺少MFPlat.DLL/MF.dll/MFReadWrite.dll等OpenCV依赖的DLL,请按如下方式安装桌面体验:通过“我的电脑”-->“属性”-->"管理"打开服务器管理器,点击右上角“管理”选择“添加角色和功能”。点击“服务器选择”-->“功能”,拖动滚动条到最下端,点开“用户界面和基础结构”,勾选“桌面体验”后点击“安装”,等安装完成尝试再次运行PaddleX。
+> 3. 请检查目标机器上是否有其他的PaddleX程序或者进程在运行中,如有请退出或者重启机器看是否解决
+> 4. 请确认运行程序的用户是否有管理员权限,如非管理员权限用户请尝试使用管理员运行看是否成功

+ 11 - 0
docs/README.md

@@ -0,0 +1,11 @@
+# PaddleX文档
+
+PaddleX的使用文档均在本目录结构下。文档采用Read the Docs方式组织,您可以直接访问[在线文档](https://paddlex.readthedocs.io/zh_CN/latest/index.html)进行查阅。
+
+## 编译文档
+在本目录下按如下步骤进行文档编译
+
+- 安装依赖: `pip install -r requirements.txt`
+- 编译: `make html`
+
+编译完成后,编译文件在`_build`目录下,直接打开`_build/html/index.html`即可查阅。

+ 38 - 0
docs/apis/deploy.md

@@ -0,0 +1,38 @@
+# 预测部署-paddlex.deploy
+
+使用Paddle Inference进行高性能的Python预测部署。更多关于Paddle Inference信息请参考[Paddle Inference文档](https://paddle-inference.readthedocs.io/en/latest/#)
+
+## Predictor类
+
+```
+paddlex.deploy.Predictor(model_dir, use_gpu=False, gpu_id=0, use_mkl=False, use_trt=False, use_glog=False, memory_optimize=True)
+```
+
+> **参数**
+
+> > * **model_dir**: 训练过程中保存的模型路径, 注意需要使用导出的inference模型
+> > * **use_gpu**: 是否使用GPU进行预测
+> > * **gpu_id**: 使用的GPU序列号
+> > * **use_mkl**: 是否使用mkldnn加速库
+> > * **use_trt**: 是否使用TensorRT预测引擎
+> > * **use_glog**: 是否打印中间日志
+> > * **memory_optimize**: 是否优化内存使用
+
+> > ### 示例
+> >
+> > ```
+> > import paddlex
+> >
+> > model = paddlex.deploy.Predictor(model_dir, use_gpu=True)
+> > result = model.predict(image_file)
+> > ```
+
+### predict 接口
+> ```
+> predict(image, topk=1)
+> ```
+
+> **参数
+
+* **image(str|np.ndarray)**: 待预测的图片路径或np.ndarray,若为后者需注意为BGR格式
+* **topk(int)**: 图像分类时使用的参数,表示预测前topk个可能的分类

+ 2 - 1
docs/apis/index.rst

@@ -1,4 +1,4 @@
-API接口说明
+PaddleX API说明文档
 ============================
 
 .. toctree::
@@ -10,3 +10,4 @@ API接口说明
    slim.md
    load_model.md
    visualize.md
+   deploy.md

+ 0 - 12
docs/change_log.md

@@ -1,12 +0,0 @@
-# 更新日志
-
-## 2020.05.20
-
-### PaddleX v1.0.0发布
-- 新增XXX
-- 新增XXX
-
-### PaddleX-GUI V1.0.0发布
-- 新增XXX
-- 新增XXX
-

+ 132 - 0
docs/cv_solutions.md

@@ -0,0 +1,132 @@
+# PaddleX视觉方案介绍  
+
+PaddleX针对图像分类、目标检测、实例分割和语义分割4种视觉任务提供了包含模型选择、压缩策略选择、部署方案选择在内的解决方案。用户根据自己的需求选择合适的模型,选择合适的压缩策略来减小模型的计算量和存储体积、加速模型预测推理,最后选择合适的部署方案将模型部署在移动端或者服务器端。
+
+## 模型选择
+
+### 图像分类
+图像分类任务指的是输入一张图片,模型预测图片的类别,如识别为风景、动物、车等。
+
+![](./images/image_classification.png)
+
+对于图像分类任务,针对不同的应用场景,PaddleX提供了百度改进的模型,见下表所示:
+> 表中GPU预测速度是使用PaddlePaddle Python预测接口测试得到(测试GPU型号为Nvidia Tesla P40)。
+> 表中CPU预测速度 (测试CPU型号为)。
+> 表中骁龙855预测速度是使用处理器为骁龙855的手机测试得到。
+> 测速时模型输入大小为224 x 224,Top1准确率为ImageNet-1000数据集上评估所得。
+
+|    模型    |  模型特点 | 存储体积 | GPU预测速度(毫秒) | CPU(x86)预测速度(毫秒) | 骁龙855(ARM)预测速度 (毫秒)| Top1准确率 |
+| :--------- | :------  | :---------- | :-----------| :-------------  | :-------------  |:--- |
+| MobileNetV3_small_ssld | 轻量高速,适用于追求高速的实时移动端场景 | 12.5MB | 7.08837 | - | 6.546 | 71.3.0% |
+| ShuffleNetV2 | 轻量级模型,精度相对偏低,适用于要求更小存储体积的实时移动端场景 | 10.2MB | 15.40 | - | 10.941 | 68.8% |
+| MobileNetV3_large_ssld | 轻量级模型,在存储方面优势不大,在速度和精度上表现适中,适合于移动端场景 | 22.8MB | 8.06651 | - | 19.803 | 79.0% |
+| MobileNetV2 | 轻量级模型,适用于使用GPU预测的移动端场景 | 15.0MB | 5.92667 | - | 23.318| 72.2 % |
+| ResNet50_vd_ssld | 高精度模型,预测时间较短,适用于大多数的服务器端场景 | 103.5MB | 7.79264 | - | - | 82.4% |
+| ResNet101_vd_ssld | 超高精度模型,预测时间相对较长,适用于有大数据量时的服务器端场景 | 180.5MB | 13.34580 | - | -| 83.7% |
+| Xception65 | 超高精度模型,预测时间更长,在处理较大数据量时有较高的精度,适用于服务器端场景 | 161.6MB | 13.87017 | - | - | 80.3% |
+
+包括上述模型,PaddleX支持近20种图像分类模型,其余模型可参考[PaddleX模型库](../appendix/model_zoo.md)
+
+
+### 目标检测
+目标检测任务指的是输入图像,模型识别出图像中物体的位置(用矩形框框出来,并给出框的位置),和物体的类别,如在手机等零件质检中,用于检测外观上的瑕疵等。
+
+![](./images/object_detection.png)
+
+对于目标检测,针对不同的应用场景,PaddleX提供了主流的YOLOv3模型和Faster-RCNN模型,见下表所示
+> 表中GPU预测速度是使用PaddlePaddle Python预测接口测试得到(测试GPU型号为Nvidia Tesla P40)。
+> 表中CPU预测速度 (测试CPU型号为)。
+> 表中骁龙855预测速度是使用处理器为骁龙855的手机测试得到。
+> 测速时YOLOv3的输入大小为608 x 608,FasterRCNN的输入大小为800 x 1333,Box mmAP为COCO2017数据集上评估所得。
+
+|   模型   | 模型特点 | 存储体积  | GPU预测速度 | CPU(x86)预测速度(毫秒) | 骁龙855(ARM)预测速度 (毫秒)| Box mmAP |
+| :------- | :-------  | :---------  | :---------- | :-------------  | :-------------  |:--- |
+| YOLOv3-MobileNetV3_larget | 适用于追求高速预测的移动端场景 | 100.7MB | 143.322 | - | - | 31.6 |
+| YOLOv3-MobileNetV1 | 精度相对偏低,适用于追求高速预测的服务器端场景 | 99.2MB| 15.422 | - | - | 29.3 |
+| YOLOv3-DarkNet53 | 在预测速度和模型精度上都有较好的表现,适用于大多数的服务器端场景| 249.2MB | 42.672 | - | - | 38.9 |
+| FasterRCNN-ResNet50-FPN | 经典的二阶段检测器,预测速度相对较慢,适用于重视模型精度的服务器端场景 | 167.MB | 83.189 | - | -| 37.2 |
+| FasterRCNN-HRNet_W18-FPN | 适用于对图像分辨率较为敏感、对目标细节预测要求更高的服务器端场景 | 115.5MB | 81.592 | - | - | 36 |
+| FasterRCNN-ResNet101_vd-FPN | 超高精度模型,预测时间更长,在处理较大数据量时有较高的精度,适用于服务器端场景 | 244.3MB | 156.097 | - | - | 40.5 |
+
+除上述模型外,YOLOv3和Faster RCNN还支持其他backbone,详情可参考[PaddleX模型库](../appendix/model_zoo.md)
+
+### 实例分割
+在目标检测中,模型识别出图像中物体的位置和物体的类别。而实例分割则是在目标检测的基础上,做了像素级的分类,将框内的属于目标物体的像素识别出来。
+
+![](./images/instance_segmentation.png)
+
+PaddleX目前提供了实例分割MaskRCNN模型,支持5种不同的backbone网络,详情可参考[PaddleX模型库](../appendix/model_zoo.md)
+> 表中GPU预测速度是使用PaddlePaddle Python预测接口测试得到(测试GPU型号为Nvidia Tesla P40)。
+> 表中CPU预测速度 (测试CPU型号为)。
+> 表中骁龙855预测速度是使用处理器为骁龙855的手机测试得到。
+> 测速时MaskRCNN的输入大小为800 x 1333,Box mmAP和Seg mmAP为COCO2017数据集上评估所得。
+
+|  模型 | 模型特点 | 存储体积 | GPU预测速度 | CPU(x86)预测速度(毫秒) | 骁龙855(ARM)预测速度 (毫秒)| Box mmAP | Seg mmAP |
+| :---- | :------- | :---------- | :---------- | :----- | :----- | :--- |:--- |
+| MaskRCNN-HRNet_W18-FPN | 适用于对图像分辨率较为敏感、对目标细节预测要求更高的服务器端场景 | - | - | - | - | 37.0 | 33.4 |
+| MaskRCNN-ResNet50-FPN | 精度较高,适合大多数的服务器端场景| 185.5M | - | - | - | 37.9 | 34.2 |
+| MaskRCNN-ResNet101_vd-FPN | 高精度但预测时间更长,在处理较大数据量时有较高的精度,适用于服务器端场景 | 268.6M | - | - | - | 41.4 | 36.8 |
+
+### 语义分割
+语义分割用于对图像做像素级的分类,应用在人像分类、遥感图像识别等场景。  
+
+![](./images/semantic_segmentation.png)
+
+对于语义分割,PaddleX也针对不同的应用场景,提供了不同的模型选择,如下表所示
+> 表中GPU预测速度是使用PaddlePaddle Python预测接口测试得到(测试GPU型号为Nvidia Tesla P40)。
+> 表中CPU预测速度 (测试CPU型号为)。
+> 表中骁龙855预测速度是使用处理器为骁龙855的手机测试得到。
+> 测速时模型的输入大小为1024 x 2048,mIOU为Cityscapes数据集上评估所得。
+
+| 模型 | 模型特点 | 存储体积 | GPU预测速度 | CPU(x86)预测速度(毫秒) | 骁龙855(ARM)预测速度 (毫秒)| mIOU |
+| :---- | :------- | :---------- | :---------- | :----- | :----- |:--- |
+| DeepLabv3p-MobileNetV2_x1.0 | 轻量级模型,适用于移动端场景| - | - | - | 69.8% |
+| HRNet_W18_Small_v1 | 轻量高速,适用于移动端场景 | - | - | - | - |
+| FastSCNN | 轻量高速,适用于追求高速预测的移动端或服务器端场景 | - | - | - | 69.64 |
+| HRNet_W18 | 高精度模型,适用于对图像分辨率较为敏感、对目标细节预测要求更高的服务器端场景| - | - | - | 79.36 |
+| DeepLabv3p-Xception65 | 高精度但预测时间更长,在处理较大数据量时有较高的精度,适用于服务器且背景复杂的场景| - | - | - | 79.3% |
+
+## 压缩策略选择
+
+PaddleX提供包含模型剪裁、定点量化的模型压缩策略来减小模型的计算量和存储体积,加快模型部署后的预测速度。使用不同压缩策略在图像分类、目标检测和语义分割模型上的模型精度和预测速度详见以下内容,用户可以选择根据自己的需求选择合适的压缩策略,进一步优化模型的性能。
+
+| 压缩策略 | 策略特点 |
+| :---- | :------- |
+| 量化  | 较为显著地减少模型的存储体积,适用于移动端或服务期端TensorRT部署,在移动端对于MobileNet系列模型有明显的加速效果 |
+| 剪裁 | 能够去除冗余的参数,达到显著减少参数计算量和模型体积的效果,提升模型的预测性能,适用于CPU部署或移动端部署(GPU上无明显加速效果) |
+| 先剪裁后量化 | 可以进一步提升模型的预测性能,适用于移动端或服务器端TensorRT部署 |
+
+### 性能对比
+
+* 表中各指标的格式为XXX/YYY,XXX表示未采取压缩策略时的指标,YYY表示压缩后的指标
+* 分类模型的准确率指的是ImageNet-1000数据集上的Top1准确率(模型输入大小为224x224),检测模型的准确率指的是COCO2017数据集上的mmAP(模型输入大小为608x608),分割模型的准确率指的是Cityscapes数据集上mIOU(模型输入大小为769x769)
+* 量化策略中,PaddleLiter推理环境为Qualcomm SnapDragon 855 + armv8,速度指标为Thread4耗时
+* 剪裁策略中,PaddleLiter推理环境为Qualcomm SnapDragon 845 + armv8,速度指标为Thread4耗时
+
+
+| 模型 | 压缩策略 | 存储体积(MB) | 准确率(%) | PaddleLite推理耗时(ms) |
+| :--: | :------: | :------: | :----: | :----------------: |
+| MobileNetV1 | 量化 | 17/4.4 | 70.99/70.18 | 10.0811/4.2934 |
+| MobileNetV1 | 剪裁 -30% | 17/12 | 70.99/70.4 | 19.5762/13.6982 |
+| YOLOv3-MobileNetV1 | 量化 | 95/25 | 29.3/27.9 | - |
+| YOLOv3-MobileNetV1 | 剪裁 -51.77% | 95/25 | 29.3/26 | - |
+| Deeplabv3-MobileNetV2 | 量化 | 7.4/1.8 | 63.26/62.03 | 593.4522/484.0018 |
+| FastSCNN | 剪裁 -47.60% | 11/5.7 | 69.64/66.68 | 415.664/291.748 |
+
+更多模型在不同设备上压缩前后的指标对比详见[PaddleX压缩模型库](appendix/slim_model_zoo.md)
+
+压缩策略的具体使用流程详见[模型压缩](tutorials/compress)
+
+**注意:PaddleX中全部图像分类模型和语义分割模型都支持量化和剪裁操作,目标检测仅有YOLOv3支持量化和剪裁操作。**
+
+## 模型部署
+
+PaddleX提供服务器端python部署、服务器端c++部署、服务器端加密部署、OpenVINO部署、移动端部署共5种部署方案,用户可以根据自己的需求选择合适的部署方案,点击以下链接了解部署的具体流程。
+
+| 部署方案 | 部署流程 |
+| :------: | :------: |
+| 服务器端python部署 | [部署流程](tutorials/deploy/deploy_server/deploy_python.html)|
+| 服务器端c++部署 | [部署流程](tutorials/deploy/deploy_server/deploy_cpp/) |
+| 服务器端加密部署 | [部署流程](tutorials/deploy/deploy_server/encryption.html) |
+| OpenVINO部署 | [部署流程](tutorials/deploy/deploy_openvino.html) |
+| 移动端部署 | [部署流程](tutorials/deploy/deploy_lite.html) |

+ 0 - 1
docs/data/annotation/classification.md

@@ -1 +0,0 @@
-# 图像分类数据准备

+ 0 - 1
docs/data/annotation/conversion.md

@@ -1 +0,0 @@
-# 标注数据格式转换

+ 0 - 13
docs/data/annotation/index.rst

@@ -1,13 +0,0 @@
-数据标注
-=======================================
-
-
-.. toctree::
-   :maxdepth: 2
-   :caption: 文档目录:
-
-   classification.md
-   object_detection.md
-   instance_segmentation.md
-   semantic_segmentation.md
-   conversion.md

+ 0 - 1
docs/data/annotation/instance_segmentation.md

@@ -1 +0,0 @@
-# 实例分割数据标注

+ 0 - 1
docs/data/annotation/object_detection.md

@@ -1 +0,0 @@
-# 目标检测数据标注

+ 0 - 1
docs/data/annotation/semantic_segmentation.md

@@ -1 +0,0 @@
-# 语义分割数据标注

+ 0 - 1
docs/data/format/classification.md

@@ -1 +0,0 @@
-# 图像分类

+ 0 - 1
docs/data/format/detection.md

@@ -1 +0,0 @@
-# 目标检测和实例分割

+ 0 - 11
docs/data/format/index.rst

@@ -1,11 +0,0 @@
-PaddleX数据格式说明
-=======================================
-
-
-.. toctree::
-   :maxdepth: 2
-   :caption: 文档目录:
-
-   classification.md
-   detection.md
-   segmentation.md

+ 0 - 1
docs/data/format/segmentation.md

@@ -1 +0,0 @@
-# 语义分割

+ 0 - 10
docs/data/index.rst

@@ -1,10 +0,0 @@
-数据准备
-=======================================
-
-
-.. toctree::
-   :maxdepth: 2
-   :caption: 文档目录:
-
-   annotation/index
-   format/index

+ 2 - 0
docs/datasets.md

@@ -0,0 +1,2 @@
+# 数据集格式说明
+该部分内容已迁移至[附录](./appendix/datasets.md)

+ 0 - 12
docs/deploy/index.rst

@@ -1,12 +0,0 @@
-模型部署
-=======================================
-
-
-.. toctree::
-   :maxdepth: 2
-   :caption: 文档目录:
-
-   server/index
-   nvidia-jetson.md
-   openvino/index
-   paddlelite/index

+ 0 - 1
docs/deploy/nvidia-jetson.md

@@ -1 +0,0 @@
-# Nvidia-Jetson开发板

+ 0 - 11
docs/deploy/openvino/index.rst

@@ -1,11 +0,0 @@
-OpenVINO部署
-=======================================
-
-
-.. toctree::
-   :maxdepth: 2
-   :caption: 文档目录:
-
-   windows.md
-   linux.md
-   intel_movidius.md

+ 0 - 1
docs/deploy/openvino/intel_movidius.md

@@ -1 +0,0 @@
-# Intel计算棒

+ 0 - 1
docs/deploy/openvino/linux.md

@@ -1 +0,0 @@
-# Linux平台

+ 0 - 1
docs/deploy/openvino/windows.md

@@ -1 +0,0 @@
-# Windows平台

+ 0 - 1
docs/deploy/paddlelite/android.md

@@ -1 +0,0 @@
-# Android平台

+ 0 - 10
docs/deploy/paddlelite/index.rst

@@ -1,10 +0,0 @@
-PaddleLite移动端部署
-=======================================
-
-
-.. toctree::
-   :maxdepth: 2
-   :caption: 文档目录:
-
-   slim/index
-   android.md

+ 0 - 1
docs/deploy/paddlelite/slim/prune.md

@@ -1 +0,0 @@
-# 模型裁剪

+ 0 - 1
docs/deploy/paddlelite/slim/quant.md

@@ -1 +0,0 @@
-# 模型量化

+ 0 - 1
docs/deploy/server/encrytion.md

@@ -1 +0,0 @@
-# 模型加密部署

+ 0 - 11
docs/deploy/server/index.rst

@@ -1,11 +0,0 @@
-服务端部署
-=======================================
-
-
-.. toctree::
-   :maxdepth: 2
-   :caption: 文档目录:
-
-   windows.md
-   linux.md
-   encryption.md

+ 0 - 1
docs/deploy/server/linux.md

@@ -1 +0,0 @@
-# Linux服务端部署

+ 0 - 1
docs/deploy/server/windows.md

@@ -1 +0,0 @@
-# Windows服务端部署

+ 0 - 5
docs/examples/human_segmentation/index.rst

@@ -1,5 +0,0 @@
-人像分割案例
-=======================================
-
-
-这里面写人像分割案例,可根据需求拆分为多个文档

+ 0 - 12
docs/examples/index.rst

@@ -1,12 +0,0 @@
-产业案例集
-=======================================
-
-
-.. toctree::
-   :maxdepth: 2
-   :caption: 文档目录:
-
-   solutions.md
-   meter_reading/index
-   human_segmentation/index
-   remote_sensing/index

+ 0 - 5
docs/examples/meter_reading/index.rst

@@ -1,5 +0,0 @@
-工业表计读数案例
-=======================================
-
-
-这里面写表计读数案例,可根据需求拆分为多个文档

+ 0 - 5
docs/examples/remote_sensing/index.rst

@@ -1,5 +0,0 @@
-遥感分割案例
-=======================================
-
-
-这里面写遥感分割案例,可根据需求拆分为多个文档

+ 0 - 1
docs/examples/solutions.md

@@ -1 +0,0 @@
-# PaddleX模型介绍

BIN
docs/images/00_loaddata.png


BIN
docs/images/01_datasplit.png


BIN
docs/images/02_newproject.png


BIN
docs/images/03_choosedata.png


BIN
docs/images/04_parameter.png


BIN
docs/images/05_train.png


BIN
docs/images/06_VisualDL.png


BIN
docs/images/07_evaluate.png


BIN
docs/images/08_deploy.png


BIN
docs/images/PaddleX-Pipe-Line.png


BIN
docs/images/QQGroup.jpeg


BIN
docs/images/anaconda_windows.png


BIN
docs/images/cls_eval.png


BIN
docs/images/cls_train.png


BIN
docs/images/faster_eval.png


BIN
docs/images/faster_train.png


BIN
docs/images/garbage.bmp


BIN
docs/images/image_classification.png


BIN
docs/images/instance_segmentation.png


BIN
docs/images/lime.png


BIN
docs/images/mask_eval.png


BIN
docs/images/mask_train.png


BIN
docs/images/normlime.png


BIN
docs/images/object_detection.png


BIN
docs/images/paddlex.jpg


BIN
docs/images/paddlex.png


BIN
docs/images/seg_eval.png


BIN
docs/images/seg_train.png


BIN
docs/images/semantic_segmentation.png


BIN
docs/images/vdl1.jpg


BIN
docs/images/vdl2.jpg


BIN
docs/images/vdl3.jpg


BIN
docs/images/visualized_deeplab.jpg


BIN
docs/images/visualized_fasterrcnn.jpg


BIN
docs/images/visualized_maskrcnn.jpeg


BIN
docs/images/voc_eval.png


BIN
docs/images/yolo_train.png


+ 14 - 9
docs/index.rst

@@ -16,19 +16,24 @@ PaddleX是基于飞桨核心框架、开发套件和工具组件的深度学习
   | - 统一易用的全流程API,5步完成模型训练,10行代码实现Python/C++高性能部署。
   | - 提供以PaddleX为核心集成的跨平台可视化开发工具PaddleX-GUI,更低门槛快速体验飞桨深度学习全流程。
 
-
 .. toctree::
    :maxdepth: 2
    :caption: 文档目录:
 
    quick_start.md
    install.md
-   data/index
-   train/index
-   deploy/index
-   examples/index
-   gui/index
-   apis/index
-   change_log.md
+   tutorials/index.rst
+   cv_solutions.md
+   apis/index.rst
+   paddlex_gui/index.rst
+   tuning_strategy/index.rst
+   update.md
    FAQ.md
-   appendix/index
+   appendix/index.rst
+
+* PaddleX版本: v1.0.0
+* 项目官网: http://www.paddlepaddle.org.cn/paddle/paddlex  
+* 项目GitHub: https://github.com/PaddlePaddle/PaddleX
+* 官方QQ用户群: 1045148026  
+* GitHub Issue反馈: http://www.github.com/PaddlePaddle/PaddleX/issues
+

+ 1 - 0
docs/metrics.md

@@ -0,0 +1 @@
+本页面已移至 [这里](./appendix/metrics.md)

+ 1 - 0
docs/model_zoo.md

@@ -0,0 +1 @@
+本页面已移至 [这里](./appendix/model_zoo.md)

+ 27 - 0
docs/paddlex_gui/download.md

@@ -0,0 +1,27 @@
+## <a name="2">PaddleX GUI安装</a>
+
+ PaddleX GUI是提升项目开发效率的核心模块,开发者可快速完成深度学习模型全流程开发。我们诚挚地邀请您前往 [官网](https://www.paddlepaddle.org.cn/paddle/paddleX)下载试用PaddleX GUI可视化前端,并获得您宝贵的意见或开源项目贡献。
+
+
+
+#### <a name="1">安装推荐环境</a>
+
+* **操作系统**:
+  * Windows7/8/10(推荐Windows 10);
+  * Mac OS 10.13+;
+  * Ubuntu 18.04+;
+
+***注:处理器需为x86_64架构,支持MKL。***
+
+* **训练硬件**:  
+  * **GPU**(仅Windows及Linux系统):  
+    推荐使用支持CUDA的NVIDIA显卡,例如:GTX 1070+以上性能的显卡;  
+    Windows系统X86_64驱动版本>=411.31;  
+    Linux系统X86_64驱动版本>=410.48;  
+    显存8G以上;  
+  * **CPU**:  
+    PaddleX当前支持您用本地CPU进行训练,但推荐使用GPU以获得更好的开发体验。
+  * **内存**:建议8G以上  
+  * **硬盘空间**:建议SSD剩余空间1T以上(非必须)  
+
+***注:PaddleX在Windows及Mac OS系统只支持单卡模型。Windows系统暂不支持NCCL。***

+ 148 - 0
docs/paddlex_gui/how_to_use.md

@@ -0,0 +1,148 @@
+# PaddleX GUI使用文档
+
+飞桨全流程开发工具,集飞桨核心框架、模型库、工具及组件等深度学习开发全流程所需能力于一身,易用易集成,是开发者快速入门深度学习、提升深度学习项目开发效率的最佳辅助工具。
+
+PaddleX GUI是一个应用PaddleX实现的一个图形化开发客户端产品,它使得开发者通过键入式输入即可完成深度学习模型全流程开发,可大幅度提升项目开发效率。飞桨团队期待各位开发者基于PaddleX,实现出各种符合自己产业实际需求的产品。
+
+我们诚挚地邀请您前往 [官网](https://www.paddlepaddle.org.cn/paddlex)下载试用PaddleX GUI,并获得您宝贵的意见或开源项目贡献。
+
+
+
+## 目录
+
+* **产品特性**
+* **PaddleX GUI可视化前端**
+* **FAQ**
+
+
+
+## 产品特性
+
+\-  **全流程打通**
+
+将深度学习开发全流程打通,并提供可视化开发界面, 省去了对各环节API的熟悉过程及重复的代码开发,极大地提升了开发效率。
+
+\-  **易用易集成**
+
+提供功能最全、最灵活的Python API开发模式,完全开源开放,易于集成和二次开发。键入式输入的图形化开发界面,使得非专业算法人员也可快速进行业务POC。
+
+\-  **融合产业实践经验**
+
+融合飞桨产业落地经验,精选高质量的视觉模型方案,开放实际的案例教学,手把手带您实现产业需求落地。
+
+\-  **教程与服务**
+
+从数据集准备到上线部署,为您提供业务开发全流程的文档说明及技术服务。开发者可以通过QQ群、微信群、GitHub社区等多种形式与飞桨团队及同业合作伙伴交流沟通。
+
+
+
+## PaddleX GUI 可视化前端
+
+**第一步:准备数据**
+
+在开始模型训练前,您需要根据不同的任务类型,将数据标注为相应的格式。目前PaddleX支持【图像分类】、【目标检测】、【语义分割】、【实例分割】四种任务类型。不同类型任务的数据处理方式可查看[数据标注方式](https://paddlex.readthedocs.io/zh_CN/latest/appendix/datasets.html)。
+
+
+
+**第二步:导入我的数据集**
+
+①数据标注完成后,您需要根据不同的任务,将数据和标注文件,按照客户端提示更名并保存到正确的文件中。
+
+②在客户端新建数据集,选择与数据集匹配的任务类型,并选择数据集对应的路径,将数据集导入。
+
+![](images/datasets1.jpg)
+
+③选定导入数据集后,客户端会自动校验数据及标注文件是否合规,校验成功后,您可根据实际需求,将数据集按比例划分为训练集、验证集、测试集。
+
+④您可在「数据分析」模块按规则预览您标注的数据集,双击单张图片可放大查看。
+
+![](images/dataset2.jpg)
+
+**第三步:创建项目**
+
+① 在完成数据导入后,您可以点击「新建项目」创建一个项目。
+
+② 您可根据实际任务需求选择项目的任务类型,需要注意项目所采用的数据集也带有任务类型属性,两者需要进行匹配。
+
+![](images/project3.jpg)
+
+
+
+**第四步:项目开发**
+
+① **数据选择**:项目创建完成后,您需要选择已载入客户端并校验后的数据集,并点击下一步,进入参数配置页面。
+
+![](images/project1.jpg)
+
+② **参数配置**:主要分为**模型参数**、**训练参数**、**优化策略**三部分。您可根据实际需求选择模型结构、骨架网络及对应的训练参数、优化策略,使得任务效果最佳。
+
+![](images/project2.jpg)
+
+参数配置完成后,点击启动训练,模型开始训练并进行效果评估。
+
+③ **训练可视化**:在训练过程中,您可通过VisualDL查看模型训练过程参数变化、日志详情,及当前最优的训练集和验证集训练指标。模型在训练过程中通过点击"中止训练"随时中止训练过程。
+
+![](images/visualization1.jpg)
+
+模型训练结束后,可选择进入『模型剪裁分析』或者直接进入『模型评估』。
+
+![](images/visualization2.jpg)
+
+④ **模型裁剪**:如果开发者希望减少模型的体积、计算量,提升模型在设备上的预测性能,可以采用PaddleX提供的模型裁剪策略。裁剪过程将对模型各卷积层的敏感度信息进行分析,根据各参数对模型效果的影响进行不同比例的裁剪,再进行精调训练获得最终裁剪后的模型。
+
+![](images/visualization3.jpg)
+
+⑤ **模型评估**:在模型评估页面,您可查看训练后的模型效果。评估方法包括混淆矩阵、精度、召回率等。
+
+![](images/visualization4.jpg)
+
+您还可以选择『数据集切分』时留出的『测试数据集』或从本地文件夹中导入一张/多张图片,将训练后的模型进行测试。根据测试结果,您可决定是否将训练完成的模型保存为预训练模型并进入模型发布页面,或返回先前步骤调整参数配置重新进行训练。
+
+![](images/visualization5.jpg)
+
+
+
+**第五步:模型发布**
+
+当模型效果满意后,您可根据实际的生产环境需求,选择将模型发布为需要的版本。
+
+![](images/publish.jpg)
+
+
+
+## FAQ
+
+1. **为什么训练速度这么慢?**
+
+   PaddleX完全采用您本地的硬件进行计算,深度学习任务确实对算力要求较高,为了使您能快速体验应用PaddleX进行开发,我们适配了CPU硬件,但强烈建议您使用GPU以提升训练速度和开发体验。
+
+
+
+2. **我可以在服务器或云平台上部署PaddleX么?**
+
+   PaddleX GUI是一个适配本地单机安装的客户端,无法在服务器上直接进行部署,您可以直接使用PaddleX API,或采用飞桨核心框架进行服务器上的部署。如果您希望使用公有算力,强烈建议您尝试飞桨产品系列中的 [EasyDL](https://ai.baidu.com/easydl/) 或 [AI Studio](https://aistudio.baidu.com/aistudio/index)进行开发。
+
+
+
+3. **PaddleX支持EasyData标注的数据吗?**
+
+   支持,PaddleX可顺畅读取EasyData标注的数据。但当前版本的PaddleX GUI暂时无法支持直接导入EasyData数据格式,您可以参照文档,将[数据集进行转换](https://paddlex.readthedocs.io/zh_CN/latest/appendix/how_to_convert_dataset.html)再导入PaddleX GUI进行后续开发。
+   同时,我们也在紧密开发PaddleX GUI可直接导入EasyData数据格式的功能。
+
+
+
+4. **为什么模型裁剪分析耗时这么长?**
+
+   模型裁剪分析过程是对模型各卷积层的敏感度信息进行分析,根据各参数对模型效果的影响进行不同比例的裁剪。此过程需要重复多次直至FLOPS满足要求,最后再进行精调训练获得最终裁剪后的模型,因此耗时较长。有关模型裁剪的原理,可参见文档[剪裁原理介绍](https://paddlepaddle.github.io/PaddleSlim/algo/algo.html#2-%E5%8D%B7%E7%A7%AF%E6%A0%B8%E5%89%AA%E8%A3%81%E5%8E%9F%E7%90%86)
+
+
+
+5. **如何调用后端代码?**
+
+   PaddleX 团队为您整理了相关的API接口文档,方便您学习和使用。具体请参见[PaddleX API说明文档](https://paddlex.readthedocs.io/zh_CN/latest/apis/index.html)
+
+
+
+**如果您有更多问题或建议,欢迎以issue的形式,或加入PaddleX官方QQ群(1045148026)直接反馈您的问题和需求**
+
+![](images/QR.jpg)

BIN
docs/paddlex_gui/images/QR.jpg


+ 1 - 0
docs/paddlex_gui/images/ReadMe

@@ -0,0 +1 @@
+PaddleX GUI Screen Shot

BIN
docs/paddlex_gui/images/dataset2.jpg


BIN
docs/paddlex_gui/images/datasets1.jpg


BIN
docs/paddlex_gui/images/project1.jpg


BIN
docs/paddlex_gui/images/project2.jpg


BIN
docs/paddlex_gui/images/project3.jpg


BIN
docs/paddlex_gui/images/publish.jpg


BIN
docs/paddlex_gui/images/visualization1.jpg


BIN
docs/paddlex_gui/images/visualization2.jpg


BIN
docs/paddlex_gui/images/visualization3.jpg


BIN
docs/paddlex_gui/images/visualization4.jpg


BIN
docs/paddlex_gui/images/visualization5.jpg


+ 4 - 1
docs/gui/index.rst → docs/paddlex_gui/index.rst

@@ -1,4 +1,4 @@
-PaddleX GUI
+PaddleX GUI使用文档
 =======================================
 
 PaddleX GUI是基于PaddleX开发实现的可视化模型训练套件,可以让开发者免去代码开发的步骤,通过点选式地操作就可以快速完成模型的训练开发。PaddleXGUI具有 **数据集可视化分析** 、**模型参数自动推荐** 、**跨平台使用** 三大特点。
@@ -17,6 +17,9 @@ PaddleX GUI是基于PaddleX开发实现的可视化模型训练套件,可以
    :maxdepth: 2
    :caption: 文档目录:
 
+   download.md
+   how_to_use.md
+   xx.md
 
 * PaddleX GUI版本: v1.0
 * 项目官网: http://www.paddlepaddle.org.cn/paddle/paddlex  

+ 1 - 0
docs/paddlex_gui/xx.md

@@ -0,0 +1 @@
+# 其它

+ 1 - 3
docs/deploy/paddlelite/slim/index.rst → docs/slim/index.rst

@@ -1,10 +1,8 @@
 模型压缩
-=======================================
-
+============================
 
 .. toctree::
    :maxdepth: 2
-   :caption: 文档目录:
 
    prune.md
    quant.md

+ 54 - 0
docs/slim/prune.md

@@ -0,0 +1,54 @@
+# 模型裁剪
+
+## 原理介绍
+
+模型裁剪用于减小模型的计算量和体积,可以加快模型部署后的预测速度,是一种减小模型大小和降低模型计算复杂度的常用方式,通过裁剪卷积层中Kernel输出通道的大小及其关联层参数大小来实现,其关联裁剪的原理可参见[PaddleSlim相关文档](https://paddlepaddle.github.io/PaddleSlim/algo/algo.html#id16)。**一般而言,在同等模型精度前提下,数据复杂度越低,模型可以被裁剪的比例就越高**。
+
+## 裁剪方法
+PaddleX提供了两种方式:
+
+**1.用户自行计算裁剪配置(推荐),整体流程包含三个步骤,**  
+> **第一步**: 使用数据集训练原始模型  
+> **第二步**:利用第一步训练好的模型,在验证数据集上计算模型中各个参数的敏感度,并将敏感度信息存储至本地文件  
+> **第三步**:使用数据集训练裁剪模型(与第一步差异在于需要在`train`接口中,将第二步计算得到的敏感信息文件传给接口的`sensitivities_file`参数)  
+
+> 在如上三个步骤中,**相当于模型共需要训练两遍**,分别对应第一步和第三步,但其中第三步训练的是裁剪后的模型,因此训练速度较第一步会更快。  
+> 第二步会遍历模型中的部分裁剪参数,分别计算各个参数裁剪后对于模型在验证集上效果的影响,**因此会反复在验证集上评估多次**。  
+
+**2.使用PaddleX内置的裁剪方案**  
+> PaddleX内置的模型裁剪方案是**基于标准数据集**上计算得到的参数敏感度信息,由于不同数据集特征分布会有较大差异,所以该方案相较于第1种方案训练得到的模型**精度一般而言会更低**(**且用户自定义数据集与标准数据集特征分布差异越大,导致训练的模型精度会越低**),仅在用户想节省时间的前提下可以参考使用,使用方式只需一步,  
+
+> **一步**: 使用数据集训练裁剪模型,在训练调用`train`接口时,将接口中的`sensitivities_file`参数设置为'DEFAULT'字符串
+
+> 注:各模型内置的裁剪方案分别依据的数据集为: 图像分类——ImageNet数据集、目标检测——PascalVOC数据集、语义分割——CityScape数据集
+
+## 裁剪实验
+基于上述两种方案,我们在PaddleX上使用样例数据进行了实验,在Tesla P40上实验指标如下所示,
+
+### 图像分类
+实验背景:使用MobileNetV2模型,数据集为蔬菜分类示例数据,见[使用教程-模型压缩-图像分类](../tutorials/compress/classification.md)
+
+| 模型 | 裁剪情况 | 模型大小 | Top1准确率(%) |GPU预测速度 | CPU预测速度 |
+| :-----| :--------| :-------- | :---------- |:---------- |:----------|
+|MobileNetV2 | 无裁剪(原模型)| 13.0M | 97.50|6.47ms |47.44ms |
+|MobileNetV2 | 方案一(eval_metric_loss=0.10) | 2.1M | 99.58 |5.03ms |20.22ms |
+|MobileNetV2 | 方案二(eval_metric_loss=0.10) | 6.0M | 99.58 |5.42ms |29.06ms |
+
+### 目标检测
+实验背景:使用YOLOv3-MobileNetV1模型,数据集为昆虫检测示例数据,见[使用教程-模型压缩-目标检测](../tutorials/compress/detection.md)
+
+
+| 模型 | 裁剪情况 | 模型大小 | MAP(%) |GPU预测速度 | CPU预测速度 |
+| :-----| :--------| :-------- | :---------- |:---------- | :---------|
+|YOLOv3-MobileNetV1 | 无裁剪(原模型)| 139M | 67.57| 14.88ms |976.42ms |
+|YOLOv3-MobileNetV1 | 方案一(eval_metric_loss=0.10) | 34M | 75.49 |10.60ms |558.49ms |
+|YOLOv3-MobileNetV1 | 方案二(eval_metric_loss=0.05) | 29M | 50.27| 9.43ms |360.46ms |
+
+### 语义分割
+实验背景:使用UNet模型,数据集为视盘分割示例数据, 见[使用教程-模型压缩-语义分割](../tutorials/compress/segmentation.md)
+
+| 模型 | 裁剪情况 | 模型大小 | mIOU(%) |GPU预测速度 | CPU预测速度 |
+| :-----| :--------| :-------- | :---------- |:---------- | :---------|
+|UNet | 无裁剪(原模型)| 77M | 91.22 |33.28ms |9523.55ms |
+|UNet | 方案一(eval_metric_loss=0.10) |26M | 90.37 |21.04ms |3936.20ms |
+|UNet | 方案二(eval_metric_loss=0.10) |23M | 91.21 |18.61ms |3447.75ms |

+ 11 - 0
docs/slim/quant.md

@@ -0,0 +1,11 @@
+# 模型量化
+
+## 原理介绍
+为了满足低内存带宽、低功耗、低计算资源占用以及低模型存储等需求,定点量化被提出。为此我们提供了训练后量化,该量化使用KL散度确定量化比例因子,将FP32模型转成INT8模型,且不需要重新训练,可以快速得到量化模型。
+
+
+## 使用PaddleX量化模型
+PaddleX提供了`export_quant_model`接口,让用户以接口的形式完成模型以post_quantization方式量化并导出。点击查看[量化接口使用文档](../apis/slim.md)。
+
+## 量化性能对比
+模型量化后的性能对比指标请查阅[PaddleSlim模型库](https://paddlepaddle.github.io/PaddleSlim/model_zoo.html)

+ 20 - 0
docs/test.cpp

@@ -0,0 +1,20 @@
+//   Copyright (c) 2020 PaddlePaddle Authors. All Rights Reserved.
+//
+// Licensed under the Apache License, Version 2.0 (the "License");
+// you may not use this file except in compliance with the License.
+// You may obtain a copy of the License at
+//
+//     http://www.apache.org/licenses/LICENSE-2.0
+//
+// Unless required by applicable law or agreed to in writing, software
+// distributed under the License is distributed on an "AS IS" BASIS,
+// WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+// See the License for the specific language governing permissions and
+// limitations under the License.
+
+#include <iostream>
+
+int main() {
+    std::cout << "haha" << std::endl;
+    return 0;
+}

+ 0 - 1
docs/train/classification.md

@@ -1 +0,0 @@
-# 图像分类

+ 0 - 15
docs/train/index.rst

@@ -1,15 +0,0 @@
-模型训练
-=======================================
-
-PaddleX目前集成了XX模型,涵盖视觉领域的图像分类、目标检测、实例分割和语义分割四大主流任务
-
-
-.. toctree::
-   :maxdepth: 2
-   :caption: 文档目录:
-
-   classification.md
-   object_detection.md
-   instance_segmentation.md
-   semantic_segmentation.md
-   prediction.md

Энэ ялгаанд хэт олон файл өөрчлөгдсөн тул зарим файлыг харуулаагүй болно