--- comments: true --- # 图像多标签分类模块使用教程 ## 一、概述 图像多标签分类模块是计算机视觉系统中的重要组件,负责对输入的图像进行多标签的分类。与传统的图像分类任务只将图像分到一个类别不同,图像多标签分类任务需要将图像分到多个相关的类别。该模块的性能直接影响到整个计算机视觉系统的准确性和效率。图像多标签分类模块通常会接收图像作为输入,然后通过深度学习或其他机器学习算法,根据图像的特性和内容,将其分类到多个预定义的类别中。例如,对于一张包含猫和狗的图像,图像多标签分类模块可能需要将其同时标记为“猫”和“狗”。这些分类标签将作为输出,供其他模块或系统进行后续的处理和分析。 ## 二、支持模型列表
| 模型 | 模型下载链接 | mAP(%) | GPU推理耗时(ms) [常规模式 / 高性能模式] |
CPU推理耗时(ms) [常规模式 / 高性能模式] |
模型存储大小 (M) | 介绍 |
|---|---|---|---|---|---|---|
| CLIP_vit_base_patch16_448_ML | 推理模型/训练模型 | 89.15 | 54.75 / 14.30 | 280.23 / 280.23 | 325.6 M | CLIP_ML是一种基于CLIP的图像多标签分类模型,通过结合ML-Decoder,显著提升了模型在图像多标签分类任务上的准确性。 |
| PP-HGNetV2-B0_ML | 推理模型/训练模型 | 80.98 | 6.47 / 1.38 | 21.56 / 13.69 | 39.6 M | PP-HGNetV2_ML是一种基于PP-HGNetV2的图像多标签分类模型,通过结合ML-Decoder,显著提升了模型在图像多标签分类任务上的准确性。 |
| PP-HGNetV2-B4_ML | 推理模型/训练模型 | 87.96 | 9.63 / 2.79 | 43.98 / 36.63 | 88.5 M | |
| PP-HGNetV2-B6_ML | 推理模型/训练模型 | 91.25 | 37.07 / 9.43 | 188.58 / 188.58 | 286.5 M | |
| PP-LCNet_x1_0_ML | 推理模型/训练模型 | 77.96 | 4.04 / 1.15 | 11.76 / 8.32 | 29.4 M | PP-LCNet_ML是一种基于PP-LCNet的图像多标签分类模型,通过结合ML-Decoder,显著提升了模型在图像多标签分类任务上的准确性。 |
| ResNet50_ML | 推理模型/训练模型 | 83.50 | 12.12 / 3.27 | 51.79 / 44.36 | 108.9 M | ResNet50_ML是一种基于ResNet50的图像多标签分类模型,通过结合ML-Decoder,显著提升了模型在图像多标签分类任务上的准确性。 |
| 模式 | GPU配置 | CPU配置 | 加速技术组合 |
|---|---|---|---|
| 常规模式 | FP32精度 / 无TRT加速 | FP32精度 / 8线程 | PaddleInference |
| 高性能模式 | 选择先验精度类型和加速策略的最优组合 | FP32精度 / 8线程 | 选择先验最优后端(Paddle/OpenVINO/TRT等) |
相关方法、参数等说明如下:
* `create_model`实例化多标签分类模型(此处以`PP-LCNet_x1_0_ML`为例),具体说明如下:
| 参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
|---|---|---|---|---|
model_name |
模型名称 | str |
无 | PP-LCNet_x1_0_ML |
model_dir |
模型存储路径 | str |
无 | 无 |
device |
模型推理设备 | str |
支持指定GPU具体卡号,如“gpu:0”,其他硬件具体卡号,如“npu:0”,CPU如“cpu”。 | gpu:0 |
threshold |
多标签分类阈值 | float/list/dict |
0.5[0.5,0.5,...]{"default":0.5,1:0.1,...}
|
0.5 |
use_hpip |
是否启用高性能推理 | bool |
无 | False |
| 参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
|---|---|---|---|---|
input |
待预测数据,支持多种输入类型 | Python Var/str/list |
|
无 |
batch_size |
批大小 | int |
任意整数 | 1 |
threshold |
多标签分类阈值 | float/list/dict |
0.5[0.5,0.5,...]{"default":0.5,1:0.1,...}
|
0.5 |
| 方法 | 方法说明 | 参数 | 参数类型 | 参数说明 | 默认值 |
|---|---|---|---|---|---|
print() |
打印结果到终端 | format_json |
bool |
是否对输出内容进行使用 JSON 缩进格式化 |
True |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
||
save_to_json() |
将结果保存为json格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
||
save_to_img() |
将结果保存为图像格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
| 属性 | 属性说明 |
|---|---|
json |
获取预测的json格式的结果 |
img |
获取格式为dict的可视化图像 |
校验结果文件具体内容为:
{
"done_flag": true,
"check_pass": true,
"attributes": {
"label_file": "../../dataset/mlcls_nus_examples/label.txt",
"num_classes": 33,
"train_samples": 17463,
"train_sample_paths": [
"check_dataset/demo_img/0543_4338693.jpg",
"check_dataset/demo_img/0272_347806939.jpg",
"check_dataset/demo_img/0069_2291994812.jpg",
"check_dataset/demo_img/0012_1222850604.jpg",
"check_dataset/demo_img/0238_53773041.jpg",
"check_dataset/demo_img/0373_541261977.jpg",
"check_dataset/demo_img/0567_519506868.jpg",
"check_dataset/demo_img/0023_289621557.jpg",
"check_dataset/demo_img/0581_484524659.jpg",
"check_dataset/demo_img/0325_120753036.jpg"
],
"val_samples": 17463,
"val_sample_paths": [
"check_dataset/demo_img/0546_130758157.jpg",
"check_dataset/demo_img/0284_2230710138.jpg",
"check_dataset/demo_img/0090_1491261559.jpg",
"check_dataset/demo_img/0013_392798436.jpg",
"check_dataset/demo_img/0246_2248376356.jpg",
"check_dataset/demo_img/0377_1349296474.jpg",
"check_dataset/demo_img/0570_2457645006.jpg",
"check_dataset/demo_img/0027_309333946.jpg",
"check_dataset/demo_img/0584_132639537.jpg",
"check_dataset/demo_img/0329_206031527.jpg"
]
},
"analysis": {
"histogram": "check_dataset/histogram.png"
},
"dataset_path": "mlcls_nus_examples",
"show_type": "image",
"dataset_type": "MLClsDataset"
}
上述校验结果中,check_pass 为 True 表示数据集格式符合要求,其他部分指标的说明如下:
attributes.num_classes:该数据集类别数为 33;attributes.train_samples:该数据集训练集样本数量为 17463;attributes.val_samples:该数据集验证集样本数量为 17463;attributes.train_sample_paths:该数据集训练集样本可视化图片相对路径列表;attributes.val_sample_paths:该数据集验证集样本可视化图片相对路径列表;另外,数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):

(1)数据集格式转换
图像多标签分类支持 COCO格式的数据集转换为 MLClsDataset格式,数据集格式转换的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:
CheckDataset:convert:enable: 是否进行数据集格式转换,图像多标签分类支持 COCO格式的数据集转换为 MLClsDataset格式,默认为 False;src_dataset_type: 如果进行数据集格式转换,则需设置源数据集格式,默认为 null,可选值为 COCO ;例如,您想将COCO格式的数据集转换为 MLClsDataset格式,则需将配置文件修改为:
cd /path/to/paddlex
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/det_coco_examples.tar -P ./dataset
tar -xf ./dataset/det_coco_examples.tar -C ./dataset/
......
CheckDataset:
......
convert:
enable: True
src_dataset_type: COCO
......
随后执行命令:
python main.py -c paddlex/configs/modules/image_multilabel_classification/PP-LCNet_x1_0_ML.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/det_coco_examples
数据转换执行之后,原有标注文件会被在原路径下重命名为 xxx.bak。
以上参数同样支持通过追加命令行参数的方式进行设置:
python main.py -c paddlex/configs/modules/image_multilabel_classification/PP-LCNet_x1_0_ML.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/det_coco_examples \
-o CheckDataset.convert.enable=True \
-o CheckDataset.convert.src_dataset_type=COCO
(2)数据集划分
数据集划分的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:
CheckDataset:split:enable: 是否进行重新划分数据集,为 True 时进行数据集格式转换,默认为 False;train_percent: 如果重新划分数据集,则需要设置训练集的百分比,类型为 0-100 之间的任意整数,需要保证和 val_percent 值加和为 100;val_percent: 如果重新划分数据集,则需要设置验证集的百分比,类型为 0-100 之间的任意整数,需要保证和 train_percent 值加和为 100;例如,您想重新划分数据集为 训练集占比 90%、验证集占比 10%,则需将配置文件修改为:
......
CheckDataset:
......
split:
enable: True
train_percent: 90
val_percent: 10
......
随后执行命令:
python main.py -c paddlex/configs/modules/image_multilabel_classification/PP-LCNet_x1_0_ML.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/det_coco_examples
数据划分执行之后,原有标注文件会被在原路径下重命名为 xxx.bak。
以上参数同样支持通过追加命令行参数的方式进行设置:
python main.py -c paddlex/configs/modules/image_multilabel_classification/PP-LCNet_x1_0_ML.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/det_coco_examples \
-o CheckDataset.split.enable=True \
-o CheckDataset.split.train_percent=90 \
-o CheckDataset.split.val_percent=10
output,如需指定保存路径,可通过配置文件中 -o Global.output 字段进行设置。在完成模型训练后,所有产出保存在指定的输出目录(默认为./output/)下,通常有以下产出:
train_result.json:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等;
train.log:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;config.yaml:训练配置文件,记录了本次训练的超参数的配置;.pdparams、.pdema、.pdopt.pdstate、.pdiparams、.json:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;.pdmodel后缀文件)升级为json(现.json后缀文件),以兼容PIR体系,并获得更好的灵活性与扩展性。在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=./output/best_model/best_model.pdparams。
在完成模型评估后,会产出evaluate_result.json,其记录了评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包括 MultiLabelMAP;