--- comments: true --- # 人脸检测模块使用教程 ## 一、概述 人脸检测任务是目标检测中的一项基本任务,旨在从输入图像中自动识别并定位人脸的位置和大小。它是人脸识别、人脸分析等后续任务的前提和基础。人脸检测任务通过构建深度神经网络模型,学习人脸的特征表示,实现高效准确的人脸检测。 ## 二、支持模型列表
| 模型 | 模型下载链接 | AP (%) Easy/Medium/Hard |
GPU推理耗时 (ms) | CPU推理耗时 (ms) | 模型存储大小 (M) | 介绍 |
|---|---|---|---|---|---|---|
| BlazeFace | 推理模型/训练模型 | 77.7/73.4/49.5 | 49.9 | 68.2 | 0.447 | 轻量高效的人脸检测模型 |
| BlazeFace-FPN-SSH | 推理模型/训练模型 | 83.2/80.5/60.5 | 52.4 | 73.2 | 0.606 | BlazeFace的改进模型,增加FPN和SSH结构 |
| PicoDet_LCNet_x2_5_face | 推理模型/训练模型 | 93.7/90.7/68.1 | 33.7 | 185.1 | 28.9 | 基于PicoDet_LCNet_x2_5的人脸检测模型 |
| PP-YOLOE_plus-S_face | 推理模型/训练模型 | 93.9/91.8/79.8 | 25.8 | 159.9 | 26.5 | 基于PP-YOLOE_plus-S的人脸检测模型 |
注:以上精度指标是在WIDER-FACE验证集上,以640 *640作为输入尺寸评估得到的。所有模型 GPU 推理耗时基于 NVIDIA V100 机器,精度类型为 FP32, CPU 推理速度基于 Intel(R) Xeon(R) Gold 6271C CPU @ 2.60GHz,精度类型为 FP32。
## 三、快速集成 > ❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 [PaddleX本地安装教程](../../../installation/installation.md) 完成whl包的安装后,几行代码即可完成人脸检测模块的推理,可以任意切换该模块下的模型,您也可以将人脸检测的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载[示例图片](https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/face_detection.png)到本地。 ```python from paddlex import create_model model_name = "PicoDet_LCNet_x2_5_face" model = create_model(model_name) output = model.predict("face_detection.png", batch_size=1) for res in output: res.print(json_format=False) res.save_to_img("./output/") res.save_to_json("./output/res.json") ``` 关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考[PaddleX单模型Python脚本使用说明](../../instructions/model_python_API.md)。 ## 四、二次开发 如果你追求更高精度的现有模型,可以使用PaddleX的二次开发能力,开发更好的人脸检测模型。在使用PaddleX开发人脸检测模型之前,请务必安装PaddleX的PaddleDetection插件,安装过程可以参考 [PaddleX本地安装教程](../../../installation/installation.md) ### 4.1 数据准备 在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX为每一个模块都提供了demo数据集,您可以基于官方提供的 Demo 数据完成后续的开发。若您希望用私有数据集进行后续的模型训练,可以参考[PaddleX目标检测任务模块数据标注教程](../../../data_annotations/cv_modules/object_detection.md)。 #### 4.1.1 Demo 数据下载 您可以参考下面的命令将 Demo 数据集下载到指定文件夹: ```bash cd /path/to/paddlex wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/widerface_coco_examples.tar -P ./dataset tar -xf ./dataset/widerface_coco_examples.tar -C ./dataset/ ``` #### 4.1.2 数据校验 一行命令即可完成数据校验: ```bash python main.py -c paddlex/configs/face_detection/PicoDet_LCNet_x2_5_face.yaml \ -o Global.mode=check_dataset \ -o Global.dataset_dir=./dataset/widerface_coco_examples ``` 执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息,命令运行成功后会在log中打印出`Check dataset passed !`信息。校验结果文件保存在`./output/check_dataset_result.json`,同时相关产出会保存在当前目录的`./output/check_dataset`目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。校验结果文件具体内容为:
{
"done_flag": true,
"check_pass": true,
"attributes": {
"num_classes": 1,
"train_samples": 500,
"train_sample_paths": [
"check_dataset/demo_img/0--Parade/0_Parade_marchingband_1_849.jpg",
"check_dataset/demo_img/0--Parade/0_Parade_Parade_0_904.jpg",
"check_dataset/demo_img/0--Parade/0_Parade_marchingband_1_799.jpg"
],
"val_samples": 100,
"val_sample_paths": [
"check_dataset/demo_img/1--Handshaking/1_Handshaking_Handshaking_1_384.jpg",
"check_dataset/demo_img/1--Handshaking/1_Handshaking_Handshaking_1_538.jpg",
"check_dataset/demo_img/1--Handshaking/1_Handshaking_Handshaking_1_429.jpg"
]
},
"analysis": {
"histogram": "check_dataset/histogram.png"
},
"dataset_path": "./dataset/example_data/widerface_coco_examples",
"show_type": "image",
"dataset_type": "COCODetDataset"
}
上述校验结果中,check_pass 为 True 表示数据集格式符合要求,其他部分指标的说明如下:
attributes.num_classes:该数据集类别数为 1;attributes.train_samples:该数据集训练集样本数量为 500;attributes.val_samples:该数据集验证集样本数量为 100;attributes.train_sample_paths:该数据集训练集样本可视化图片相对路径列表;attributes.val_sample_paths:该数据集验证集样本可视化图片相对路径列表;数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):

(1)数据集格式转换
人脸检测不支持数据格式转换。
(2)数据集划分
数据集划分的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:
CheckDataset:split:enable: 是否进行重新划分数据集,为 True 时进行数据集格式转换,默认为 False;train_percent: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证与 val_percent 的值之和为100;例如,您想重新划分数据集为 训练集占比90%、验证集占比10%,则需将配置文件修改为:
......
CheckDataset:
......
split:
enable: True
train_percent: 90
val_percent: 10
......
随后执行命令:
python main.py -c paddlex/configs/face_detection/PicoDet_LCNet_x2_5_face.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/widerface_coco_examples
数据划分执行之后,原有标注文件会被在原路径下重命名为 xxx.bak。
以上参数同样支持通过追加命令行参数的方式进行设置:
python main.py -c paddlex/configs/face_detection/PicoDet_LCNet_x2_5_face.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/widerface_coco_examples \
-o CheckDataset.split.enable=True \
-o CheckDataset.split.train_percent=90 \
-o CheckDataset.split.val_percent=10
output,如需指定保存路径,可通过配置文件中 -o Global.output 字段进行设置。在完成模型训练后,所有产出保存在指定的输出目录(默认为./output/)下,通常有以下产出:
train_result.json:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等;
train.log:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;config.yaml:训练配置文件,记录了本次训练的超参数的配置;.pdparams、.pdema、.pdopt.pdstate、.pdiparams、.pdmodel:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=``./output/best_model/best_model/model.pdparams。
在完成模型评估后,会产出evaluate_result.json,其记录了评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包含 AP;