--- comments: true --- # 实例分割模块使用教程 ## 一、概述 实例分割模块是计算机视觉系统中的关键组成部分,负责在图像或视频中确定并标记出包含特定对象实例的像素。该模块的性能直接影响到整个计算机视觉系统的准确性和效率。实例分割模块通常会输出每个目标实例的像素级别的掩模(masks),这些掩模将作为输入传递给对象识别模块进行后续处理。 ## 二、支持模型列表
模型模型下载链接 Mask AP GPU推理耗时(ms) CPU推理耗时 (ms) 模型存储大小(M) 介绍
Mask-RT-DETR-H推理模型/训练模型 50.6 132.693 4896.17 449.9 M Mask-RT-DETR 是一种基于RT-DETR的实例分割模型,通过采用最优性能的更好的PP-HGNetV2作为骨干网络,构建了MaskHybridEncoder编码器,引入了IOU-aware Query Selection 技术,使其在相同推理耗时上取得了SOTA实例分割精度。
Mask-RT-DETR-L推理模型/训练模型 45.7 46.5059 2575.92 113.6 M
> ❗ 以上列出的是实例分割模块重点支持的2个核心模型,该模块总共支持15个模型,完整的模型列表如下:
👉模型列表详情
模型模型下载链接 Mask AP GPU推理耗时(ms) CPU推理耗时 (ms) 模型存储大小(M) 介绍
Cascade-MaskRCNN-ResNet50-FPN推理模型/训练模型 36.3 - - 254.8 M Cascade-MaskRCNN 是一种改进的Mask RCNN实例分割模型,通过级联多个检测器,利用不同IOU阈值优化分割结果,解决检测与推理阶段的mismatch问题,提高了实例分割的准确性。
Cascade-MaskRCNN-ResNet50-vd-SSLDv2-FPN推理模型/训练模型 39.1 - - 254.7 M
Mask-RT-DETR-H推理模型/训练模型 50.6 132.693 4896.17 449.9 M Mask-RT-DETR 是一种基于RT-DETR的实例分割模型,通过采用最优性能的更好的PP-HGNetV2作为骨干网络,构建了MaskHybridEncoder编码器,引入了IOU-aware Query Selection 技术,使其在相同推理耗时上取得了SOTA实例分割精度。
Mask-RT-DETR-L推理模型/训练模型 45.7 46.5059 2575.92 113.6 M
Mask-RT-DETR-M推理模型/训练模型 42.7 36.8329 - 66.6 M
Mask-RT-DETR-S推理模型/训练模型 41.0 33.5007 - 51.8 M
Mask-RT-DETR-X推理模型/训练模型 47.5 75.755 3358.04 237.5 M
MaskRCNN-ResNet50-FPN推理模型/训练模型 35.6 - - 157.5 M Mask R-CNN是由华盛顿首例即现投影卡的一个全任务深度学习模型,能够在一个模型中完成图片实例的分类和定位,并结合图像级的遮罩(Mask)来完成分割任务。
MaskRCNN-ResNet50-vd-FPN推理模型/训练模型 36.4 - - 157.5 M
MaskRCNN-ResNet50推理模型/训练模型 32.8 - - 128.7 M
MaskRCNN-ResNet101-FPN推理模型/训练模型 36.6 - - 225.4 M
MaskRCNN-ResNet101-vd-FPN推理模型/训练模型 38.1 - - 225.1 M
MaskRCNN-ResNeXt101-vd-FPN推理模型/训练模型 39.5 - - 370.0 M
PP-YOLOE_seg-S推理模型/训练模型 32.5 - - 31.5 M PP-YOLOE_seg 是一种基于PP-YOLOE的实例分割模型。该模型沿用了PP-YOLOE的backbone和head,通过设计PP-YOLOE实例分割头,大幅提升了实例分割的性能和推理速度。
SOLOv2推理模型/训练模型 35.5 - - 179.1 M SOLOv2 是一种按位置分割物体的实时实例分割算法。该模型是SOLO的改进版本,通过引入掩码学习和掩码NMS,实现了精度和速度上取得良好平衡。

注:以上精度指标为COCO2017验证集 Mask AP。所有模型 GPU 推理耗时基于 NVIDIA Tesla T4 机器,精度类型为 FP32, CPU 推理速度基于 Intel(R) Xeon(R) Gold 5117 CPU @ 2.00GHz,线程数为8,精度类型为 FP32。

## 三、快速集成 > ❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 [PaddleX本地安装教程](../../../installation/installation.md) 完成 wheel 包的安装后,几行代码即可完成实例分割模块的推理,可以任意切换该模块下的模型,您也可以将实例分割的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载[示例图片](https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_instance_segmentation_004.png)到本地。 ```python from paddlex import create_model model = create_model("Mask-RT-DETR-L") output = model.predict("general_instance_segmentation_004.png", batch_size=1) for res in output: res.print(json_format=False) res.save_to_img("./output/") res.save_to_json("./output/res.json") ``` 关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考[PaddleX单模型Python脚本使用说明](../../instructions/model_python_API.md)。 ## 四、二次开发 如果你追求更高精度的现有模型,可以使用 PaddleX 的二次开发能力,开发更好的实例分割模型。在使用 PaddleX 开发实例分割模型之前,请务必安装 PaddleX 的 分割 相关模型训练插件,安装过程可以参考[PaddleX本地安装教程](../../../installation/installation.md)中的二次开发部分。 ### 4.1 数据准备 在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX 为每一个模块都提供了 Demo 数据集,您可以基于官方提供的 Demo 数据完成后续的开发。若您希望用私有数据集进行后续的模型训练,可以参考[PaddleX实例分割任务模块数据标注教程](../../../data_annotations/cv_modules/instance_segmentation.md)。 #### 4.1.1 Demo 数据下载 您可以参考下面的命令将 Demo 数据集下载到指定文件夹: ```bash wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/instance_seg_coco_examples.tar -P ./dataset tar -xf ./dataset/instance_seg_coco_examples.tar -C ./dataset/ ``` #### 4.1.2 数据校验 一行命令即可完成数据校验: ```bash python main.py -c paddlex/configs/instance_segmentation/Mask-RT-DETR-L.yaml \ -o Global.mode=check_dataset \ -o Global.dataset_dir=./dataset/instance_seg_coco_examples ``` 执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息,命令运行成功后会在log中打印出`Check dataset passed !`信息。校验结果文件保存在`./output/check_dataset_result.json`,同时相关产出会保存在当前目录的`./output/check_dataset`目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。
👉 校验结果详情(点击展开)

校验结果文件具体内容为:

{
  "done_flag": true,
  "check_pass": true,
  "attributes": {
    "num_classes": 2,
    "train_samples": 79,
    "train_sample_paths": [
      "check_dataset/demo_img/pexels-photo-634007.jpeg",
      "check_dataset/demo_img/pexels-photo-59576.png"
    ],
    "val_samples": 19,
    "val_sample_paths": [
      "check_dataset/demo_img/peasant-farmer-farmer-romania-botiza-47862.jpeg",
      "check_dataset/demo_img/pexels-photo-715546.png"
    ]
  },
  "analysis": {
    "histogram": "check_dataset/histogram.png"
  },
  "dataset_path": "./dataset/instance_seg_coco_examples",
  "show_type": "image",
  "dataset_type": "COCOInstSegDataset"
}

上述校验结果中,check_pass 为 True 表示数据集格式符合要求,其他部分指标的说明如下:

#### 4.1.3 数据集格式转换/数据集划分(可选) 在您完成数据校验之后,可以通过修改配置文件或是追加超参数的方式对数据集的格式进行转换,也可以对数据集的训练/验证比例进行重新划分。
👉 格式转换/数据集划分详情(点击展开)

(1)数据集格式转换

实例分割任务支持LabelMe格式转换为COCO格式,数据集格式转换的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:

cd /path/to/paddlex
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/instance_seg_labelme_examples.tar -P ./dataset
tar -xf ./dataset/instance_seg_labelme_examples.tar -C ./dataset/
......
CheckDataset:
  ......
  convert:
    enable: True
    src_dataset_type: LabelMe
  ......

随后执行命令:

python main.py -c paddlex/configs/instance_segmentation/Mask-RT-DETR-L.yaml\
    -o Global.mode=check_dataset \
    -o Global.dataset_dir=./dataset/instance_seg_labelme_examples

数据转换执行之后,原有标注文件会被在原路径下重命名为 xxx.bak

以上参数同样支持通过追加命令行参数的方式进行设置:

python main.py -c paddlex/configs/instance_segmentation/Mask-RT-DETR-L.yaml\
    -o Global.mode=check_dataset \
    -o Global.dataset_dir=./dataset/instance_seg_labelme_examples \
    -o CheckDataset.convert.enable=True \
    -o CheckDataset.convert.src_dataset_type=LabelMe

(2)数据集划分

数据集划分的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:

例如,您想重新划分数据集为 训练集占比90%、验证集占比10%,则需将配置文件修改为:

......
CheckDataset:
  ......
  split:
    enable: True
    train_percent: 90
    val_percent: 10
  ......

随后执行命令:

python main.py -c paddlex/configs/instance_segmentation/Mask-RT-DETR-L.yaml \
    -o Global.mode=check_dataset \
    -o Global.dataset_dir=./dataset/instance_seg_labelme_examples

数据划分执行之后,原有标注文件会被在原路径下重命名为 xxx.bak

以上参数同样支持通过追加命令行参数的方式进行设置:

python main.py -c paddlex/configs/instance_segmentation/Mask-RT-DETR-L.yaml \
    -o Global.mode=check_dataset \
    -o Global.dataset_dir=./dataset/instance_seg_labelme_examples \
    -o CheckDataset.split.enable=True \
    -o CheckDataset.split.train_percent=90 \
    -o CheckDataset.split.val_percent=10
### 4.2 模型训练 一条命令即可完成模型的训练,以此处实例分割模型 Mask-RT-DETR-L 的训练为例: ```bash python main.py -c paddlex/configs/instance_segmentation/Mask-RT-DETR-L.yaml \ -o Global.mode=train \ -o Global.dataset_dir=./dataset/instance_seg_coco_examples ``` 需要如下几步: * 指定模型的`.yaml` 配置文件路径(此处为 `Mask-RT-DETR-L.yaml`,训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以查阅[PaddleX模型列表(CPU/GPU)](../../../support_list/models_list.md)) * 指定模式为模型训练:`-o Global.mode=train` * 指定训练数据集路径:`-o Global.dataset_dir` 其他相关参数均可通过修改`.yaml`配置文件中的`Global`和`Train`下的字段来进行设置,也可以通过在命令行中追加参数来进行调整。如指定前 2 卡 gpu 训练:`-o Global.device=gpu:0,1`;设置训练轮次数为 10:`-o Train.epochs_iters=10`。更多可修改的参数及其详细解释,可以查阅模型对应任务模块的配置文件说明[PaddleX通用模型配置文件参数说明](../../instructions/config_parameters_common.md)。
👉 更多说明(点击展开)
### 4.3 模型评估 在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,一条命令即可完成模型的评估: ```bash python main.py -c paddlex/configs/instance_segmentation/Mask-RT-DETR-L.yaml \ -o Global.mode=evaluate \ -o Global.dataset_dir=./dataset/instance_seg_coco_examples ``` 与模型训练类似,需要如下几步: * 指定模型的`.yaml` 配置文件路径(此处为 `Mask-RT-DETR-L.yaml`) * 指定模式为模型评估:`-o Global.mode=evaluate` * 指定验证数据集路径:`-o Global.dataset_dir` 其他相关参数均可通过修改`.yaml`配置文件中的`Global`和`Evaluate`下的字段来进行设置,详细请参考[PaddleX通用模型配置文件参数说明](../../instructions/config_parameters_common.md)。
👉 更多说明(点击展开)

在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=./output/best_model/best_model.pdparams

在完成模型评估后,会产出evaluate_result.json,其记录了评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包含 AP;

### 4.4 模型推理和模型集成 在完成模型的训练和评估后,即可使用训练好的模型权重进行推理预测或者进行Python集成。 #### 4.4.1 模型推理 通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载[示例图片](https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_instance_segmentation_004.png)到本地。 ```bash python main.py -c paddlex/configs/instance_segmentation/Mask-RT-DETR-L.yaml \ -o Global.mode=predict \ -o Predict.model_dir="./output/best_model/inference" \ -o Predict.input="general_instance_segmentation_004.png" ``` 与模型训练和评估类似,需要如下几步: * 指定模型的`.yaml` 配置文件路径(此处为 `Mask-RT-DETR-L.yaml`) * 指定模式为模型推理预测:`-o Global.mode=predict` * 指定模型权重路径:`-o Predict.model_dir="./output/best_model/inference"` * 指定输入数据路径:`-o Predict.input="..."` 其他相关参数均可通过修改`.yaml`配置文件中的`Global`和`Predict`下的字段来进行设置,详细请参考[PaddleX通用模型配置文件参数说明](../../instructions/config_parameters_common.md)。 #### 4.4.2 模型集成 模型可以直接集成到 PaddleX 产线中,也可以直接集成到您自己的项目中。 1.产线集成 实例分割模块可以集成的PaddleX产线有[通用实例分割产线](../../../pipeline_usage/tutorials/cv_pipelines/instance_segmentation.md),只需要替换模型路径即可完成相关产线的实例分割模块的模型更新。 2.模块集成 您产出的权重可以直接集成到实例分割模块中,可以参考[快速集成](#三快速集成)的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。