人体关键点检测是计算机视觉领域中的一个重要任务,旨在识别图像或视频中人体的特定关键点位置。通过检测这些关键点,可以实现姿态估计、动作识别、人机交互、动画生成等多种应用。人体关键点检测在增强现实、虚拟现实、运动捕捉等领域都有广泛的应用。
关键点检测算法主要包括 Top-Down 和 Bottom-Up 两种方案。Top-Down 方案通常依赖一个目标检测算法识别出感兴趣物体的边界框,关键点检测模型的输入为经过裁剪的单个目标,输出为这个目标的关键点预测结果,模型的准确率会更高,但速度会随着对象数量的增加而变慢。不同的是,Bottom-Up 方法不依赖于先进行目标检测,而是直接对整个图像进行关键点检测,然后对这些点进行分组或连接以形成多个姿势实例,其速度是固定的,不会随着物体数量的增加而变慢,但精度会更低。
| 模型 | 模型下载链接 | 方案 | 输入尺寸 | AP(0.5:0.95) | GPU推理耗时(ms) | CPU推理耗时 (ms) | 模型存储大小(M) | 介绍 |
|---|---|---|---|---|---|---|---|---|
| PP-TinyPose_128x96 | 推理模型/训练模型 | Top-Down | 128*96 | 58.4 | 4.9 | PP-TinyPose 是百度飞桨视觉团队自研的针对移动端设备优化的实时关键点检测模型,可流畅地在移动端设备上执行多人姿态估计任务 | ||
| PP-TinyPose_256x192 | 推理模型/训练模型 | Top-Down | 256*192 | 68.3 | 4.9 |
注:以上精度指标为COCO数据集 AP(0.5:0.95),所依赖的检测框为ground truth标注得到。所有模型 GPU 推理耗时基于 NVIDIA Tesla T4 机器,精度类型为 FP32, CPU 推理速度基于 Intel(R) Xeon(R) Gold 5117 CPU @ 2.00GHz,线程数为8,精度类型为 FP32。
❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 PaddleX本地安装教程
完成wheel包的安装后,几行代码即可完成人体关键点检测模块的推理,可以任意切换该模块下的模型,您也可以将人体关键点检测模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例图片到本地。
from paddlex import create_model
model = create_model(model_name="PP-TinyPose_128x96")
output = model.predict("keypoint_detection_002.jpg", batch_size=1)
for res in output:
res.print()
res.save_to_img("./output/")
res.save_to_json("./output/")
可视化图像如下:
相关方法、参数等说明如下:
create_model实例化人体关键点检测模型(此处以PP-TinyPose_128x96为例),具体说明如下:
| 参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
|---|---|---|---|---|
model_name |
模型名称 | str |
无 | 无 |
model_dir |
模型存储路径 | str |
无 | 无 |
flip |
是否进行图像水平反转推理结果融合; 如果为True,模型会对输入图像水平翻转后再次推理,并融合两次推理结果以增加关键点预测的准确性 | bool |
无 | False |
其中,model_name 必须指定,指定 model_name 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 model_dir 时,使用用户自定义的模型。
调用人体关键点检测模型的 predict() 方法进行推理预测,predict() 方法参数有 input和batch_size,具体说明如下:
| 参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
|---|---|---|---|---|
input |
待预测数据,支持多种输入类型 | Python Var/str/dict/list |
|
无 |
batch_size |
批大小 | int |
任意整数 | 1 |
dict类型,且支持打印、保存为图片、保存为json文件的操作:| 方法 | 方法说明 | 参数 | 参数类型 | 参数说明 | 默认值 |
|---|---|---|---|---|---|
print() |
打印结果到终端 | format_json |
bool |
是否对输出内容进行使用 JSON 缩进格式化 |
True |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
||
save_to_json() |
将结果保存为json格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
||
save_to_img() |
将结果保存为图像格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
| 属性 | 属性说明 |
|---|---|
json |
获取预测的json格式的结果 |
img |
获取格式为dict的可视化图像 |
关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考PaddleX单模型Python脚本使用说明。
如果你追求更高精度的现有模型,可以使用PaddleX的二次开发能力,开发更好的关键点检测模型。在使用PaddleX开发关键点检测模型之前,请务必安装PaddleX的PaddleDetection插件,安装过程可以参考 PaddleX本地安装教程。
在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX为每一个模块都提供了demo数据集,您可以基于官方提供的 Demo 数据完成后续的开发。
您可以参考下面的命令将 Demo 数据集下载到指定文件夹:
cd /path/to/paddlex
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/keypoint_coco_examples.tar -P ./dataset
tar -xf ./dataset/keypoint_coco_examples.tar -C ./dataset/
一行命令即可完成数据校验:
python main.py -c paddlex/configs/modules/keypoint_detection/PP-TinyPose_128x96.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/keypoint_coco_examples
执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息,命令运行成功后会在log中打印出Check dataset passed !信息。校验结果文件保存在./output/check_dataset_result.json,同时相关产出会保存在当前目录的./output/check_dataset目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。
在您完成数据校验之后,可以通过修改配置文件或是追加超参数的方式对数据集的格式进行转换,也可以对数据集的训练/验证比例进行重新划分。
一条命令即可完成模型的训练,以此处PP-TinyPose_128x96的训练为例:
python main.py -c paddlex/configs/modules/keypoint_detection/PP-TinyPose_128x96.yaml \
-o Global.mode=train \
-o Global.dataset_dir=./dataset/keypoint_coco_examples
需要如下几步:
.yaml 配置文件路径(此处为PP-TinyPose_128x96.yaml,训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以查阅PaddleX模型列表(CPU/GPU))-o Global.mode=train-o Global.dataset_dir
其他相关参数均可通过修改.yaml配置文件中的Global和Train下的字段来进行设置,也可以通过在命令行中追加参数来进行调整。如指定前 2 卡 gpu 训练:-o Global.device=gpu:0,1;设置训练轮次数为 10:-o Train.epochs_iters=10。更多可修改的参数及其详细解释,可以查阅模型对应任务模块的配置文件说明PaddleX通用模型配置文件参数说明。在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,一条命令即可完成模型的评估:
python main.py -c paddlex/configs/modules/keypoint_detection/PP-TinyPose_128x96.yaml \
-o Global.mode=evaluate \
-o Global.dataset_dir=./dataset/keypoint_coco_examples
与模型训练类似,需要如下几步:
.yaml 配置文件路径(此处为PP-TinyPose_128x96.yaml)-o Global.mode=evaluate-o Global.dataset_dir
其他相关参数均可通过修改.yaml配置文件中的Global和Evaluate下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明。在完成模型的训练和评估后,即可使用训练好的模型权重进行推理预测。在PaddleX中实现模型推理预测可以通过两种方式:命令行和wheel 包。
通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载示例图片到本地。
python main.py -c paddlex/configs/modules/keypoint_detection/PP-TinyPose_128x96.yaml \
-o Global.mode=predict \
-o Predict.model_dir="./output/best_model/inference" \
-o Predict.input="keypoint_detection_002.jpg"
与模型训练和评估类似,需要如下几步:
指定模型的.yaml 配置文件路径(此处为PP-TinyPose_128x96.yaml)
指定模式为模型推理预测:-o Global.mode=predict
指定模型权重路径:-o Predict.model_dir="./output/best_model/inference"
指定输入数据路径:-o Predict.input="..."
其他相关参数均可通过修改.yaml配置文件中的Global和Predict下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明。
模型可以直接集成到 PaddleX 产线中,也可以直接集成到您自己的项目中。
1.产线集成
人体关键点检测模块可以集成的PaddleX产线有人体关键点检测,只需要替换模型路径即可完成相关产线的人体关键点检测模块的模型更新。在产线集成中,你可以使用高性能部署和服务化部署来部署你得到的模型。
2.模块集成
您产出的权重可以直接集成到人体关键点检测模块中,可以参考快速集成的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。