视频检测任务是计算机视觉系统中的关键组成部分,专注于识别和定位视频序列中的物体或事件。视频检测将视频分解为单独的帧序列, 然后分析这些帧以识别检测物体或动作,例如在监控视频中检测行人,或在体育或娱乐视频中识别特定活动,如“跑步”、“跳跃”或“弹吉他”。 视频检测模块的输出包括每个检测到的物体或事件的边界框和类别标签。这些信息可以被其他模块或系统用于进一步分析,例如跟踪检测到的物体的移动、生成警报或编制统计数据以供决策过程使用。因此,视频检测在从安全监控和自动驾驶到体育分析和内容审核的各种应用中都扮演着重要角色。
推理耗时仅包含模型推理耗时,不包含前后处理耗时。
| 模型 | 模型下载链接 | Frame-mAP(@ IoU 0.5) | 模型存储大小(MB) | 介绍 |
|---|---|---|---|---|
| YOWO | 推理模型/训练模型 | 80.94 | 462.891 | YOWO是具有两个分支的单阶段网络。一个分支通过2D-CNN提取关键帧(即当前帧)的空间特征,而另一个分支则通过3D-CNN获取由先前帧组成的剪辑的时空特征。为准确汇总这些特征,YOWO使用了一种通道融合和关注机制,最大程度地利用了通道间的依赖性。最后将融合后的特征进行帧级检测。 |
测试环境说明:
<li><b>性能测试环境</b>
<ul>
<li><strong>测试数据集:</strong><a href="http://www.thumos.info/download.html">UCF101-24</a> test数据集。</li>
<li><strong>硬件配置:</strong>
<ul>
<li>GPU:NVIDIA Tesla T4</li>
<li>CPU:Intel Xeon Gold 6271C @ 2.60GHz</li>
</ul>
</li>
<li><strong>软件环境:</strong>
<ul>
<li>Ubuntu 20.04 / CUDA 11.8 / cuDNN 8.9 / TensorRT 8.6.1.6</li>
<li>paddlepaddle 3.0.0 / paddlex 3.0.3</li>
</ul>
</li>
</ul>
</li>
<li><b>推理模式说明</b></li>
| 模式 | GPU配置 | CPU配置 | 加速技术组合 |
|---|---|---|---|
| 常规模式 | FP32精度 / 无TRT加速 | FP32精度 / 8线程 | PaddleInference |
| 高性能模式 | 选择先验精度类型和加速策略的最优组合 | FP32精度 / 8线程 | 选择先验最优后端(Paddle/OpenVINO/TRT等) |
❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 PaddleX本地安装教程。
完成 wheel 包的安装后,几行代码即可完成视频检测模块的推理,可以任意切换该模块下的模型,您也可以将视频检测的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例视频到本地。
from paddlex import create_model
model = create_model(model_name="YOWO")
output = model.predict(input="HorseRiding.avi", batch_size=1)
for res in output:
res.print()
res.save_to_video(save_path="./output/")
res.save_to_json(save_path="./output/res.json")
[xmin, ymin, xmax, ymax]: 目标框左上角和右下角坐标,均为浮点数
- float: 目标框的置信度,浮点数
- string: 目标框的所属类别,字符串
上述Python脚本中,执行了如下几个步骤:
create_model实例化视频检测模型(YOWO),具体说明如下:| 参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
|---|---|---|---|---|
model_name |
模型名称 | str |
所有PaddleX支持的模型名称 | 无 |
model_dir |
模型存储路径 | str |
无 | 无 |
device |
模型推理设备 | str |
支持指定GPU具体卡号,如“gpu:0”,其他硬件具体卡号,如“npu:0”,CPU如“cpu”。 | gpu:0 |
use_hpip |
是否启用高性能推理插件 | bool |
无 | False |
hpi_config |
高性能推理配置 | dict | None |
无 | None |
nms_thresh |
非极大值抑制(Non-Maximum Suppression, NMS)过程中的IoU阈值参数;如果不指定,将默认使用PaddleX官方模型配置 | float/None |
大于0的浮点数/None | None |
score_thresh |
预测置信度阈值;如果不指定,将默认使用PaddleX官方模型配置 | float/None |
大于0的浮点数/None | None |
predict方法进行推理预测,predict 方法参数为input,用于输入待预测数据,支持多种输入类型,具体说明如下:| 参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
|---|---|---|---|---|
input |
待预测数据,支持多种输入类型 | Python Var/str/list |
|
无 |
batch_size |
批大小 | int |
无 | 1 |
nms_thresh |
非极大值抑制(Non-Maximum Suppression, NMS)过程中的IoU阈值参数 | float|None |
|
None |
score_thresh |
预测置信度阈值 | float|None |
|
None |
json文件的操作:| 方法 | 方法说明 | 参数 | 参数类型 | 参数说明 | 默认值 |
|---|---|---|---|---|---|
print() |
打印结果到终端 | format_json |
bool |
是否对输出内容进行使用json缩进格式化 |
True |
indent |
int |
json格式化设置,仅当format_json为True时有效 |
4 | ||
ensure_ascii |
bool |
json格式化设置,仅当format_json为True时有效 |
False |
||
save_to_json() |
将结果保存为json格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
indent |
int |
json格式化设置 | 4 | ||
ensure_ascii |
bool |
json格式化设置 | False |
||
save_to_video() |
将结果保存为视频格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
json结果:| 属性 | 属性说明 |
|---|---|
json |
获取预测的json格式的结果 |
video |
获取格式为dict的可视化视频和视频帧率。这里,可视化视频是np.array数组,维度是(视频帧数,视频高度,视频宽度,视频通道数) |
关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考PaddleX单模型Python脚本使用说明。
如果你追求更高精度的现有模型,可以使用 PaddleX 的二次开发能力,开发更好的视频检测模型。在使用 PaddleX 开发视频检测模型之前,请务必安装 PaddleX 的 视频检测 PaddleX本地安装教程中的二次开发部分。
在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX 为每一个模块都提供了 Demo 数据集,您可以基于官方提供的 Demo 数据完成后续的开发。若您希望用私有数据集进行后续的模型训练,可以参考PaddleX视频检测任务模块数据标注教程
您可以参考下面的命令将 Demo 数据集下载到指定文件夹:
cd /path/to/paddlex
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/video_det_examples.tar -P ./dataset
tar -xf ./dataset/video_det_examples.tar -C ./dataset/
一行命令即可完成数据校验:
python main.py -c paddlex/configs/modules/video_detection/YOWO.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/video_det_examples
执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息。命令运行成功后会在log中打印出Check dataset passed !信息。校验结果文件保存在./output/check_dataset_result.json,同时相关产出会保存在当前目录的./output/check_dataset目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。
校验结果文件具体内容为:
{
"done_flag": true,
"check_pass": true,
"attributes": {
"label_file": "..\/..\/dataset\/video_det_examples\/label_map.txt",
"num_classes": 24,
"train_samples": 6878,
"train_sample_paths": [
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/SoccerJuggling\/v_SoccerJuggling_g19_c06\/00296.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/SkateBoarding\/v_SkateBoarding_g17_c04\/00026.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/RopeClimbing\/v_RopeClimbing_g01_c03\/00055.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/HorseRiding\/v_HorseRiding_g11_c05\/00132.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/PoleVault\/v_PoleVault_g13_c03\/00089.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/Basketball\/v_Basketball_g13_c04\/00050.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/PoleVault\/v_PoleVault_g01_c05\/00024.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/RopeClimbing\/v_RopeClimbing_g03_c04\/00118.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/GolfSwing\/v_GolfSwing_g01_c06\/00231.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/TrampolineJumping\/v_TrampolineJumping_g02_c02\/00134.jpg"
],
"val_samples": 3916,
"val_sample_paths": [
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/IceDancing\/v_IceDancing_g22_c02\/00017.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/TennisSwing\/v_TennisSwing_g04_c02\/00046.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/SoccerJuggling\/v_SoccerJuggling_g08_c03\/00169.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/Fencing\/v_Fencing_g24_c02\/00009.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/Diving\/v_Diving_g16_c02\/00110.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/HorseRiding\/v_HorseRiding_g08_c02\/00079.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/PoleVault\/v_PoleVault_g17_c07\/00008.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/Skiing\/v_Skiing_g20_c06\/00221.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/PoleVault\/v_PoleVault_g17_c07\/00137.jpg",
"check_dataset\/..\/..\/dataset\/video_det_examples\/rgb-images\/GolfSwing\/v_GolfSwing_g24_c01\/00093.jpg"
]
},
"analysis": {
"histogram": "check_dataset\/histogram.png"
},
"dataset_path": "video_det_examples",
"show_type": "video",
"dataset_type": "VideoDetDataset"
}
上述校验结果中,check_pass 为 True 表示数据集格式符合要求,其他部分指标的说明如下:
attributes.num_classes:该数据集类别数为 24;attributes.train_samples:该数据集训练集样本数量为 6878;attributes.val_samples:该数据集验证集样本数量为 3916;attributes.train_sample_paths:该数据集训练集样本可视化视频相对路径列表;attributes.val_sample_paths:该数据集验证集样本可视化视频相对路径列表;另外,数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):
在您完成数据校验之后,可以通过修改配置文件或是追加超参数的方式对数据集的格式进行转换,也可以对数据集的训练/验证比例进行重新划分。
(1)数据集格式转换
视频检测暂不支持数据转换。
(2)数据集划分
视频检测暂不支持数据划分。
一条命令即可完成模型的训练,以此处视频检测模型 YOWO 的训练为例:
python main.py -c paddlex/configs/modules/video_detection/YOWO.yaml \
-o Global.mode=train \
-o Global.dataset_dir=./dataset/video_det_examples
需要如下几步:
.yaml 配置文件路径(此处为YOWO.yaml,训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以查阅PaddleX模型列表(CPU/GPU)-o Global.mode=train-o Global.dataset_dir.yaml配置文件中的Global和Train下的字段来进行设置,也可以通过在命令行中追加参数来进行调整。如指定第 2 卡 gpu 训练:-o Global.device=gpu:2,视频检测只支持单卡训练;设置训练轮次数为 10:-o Train.epochs_iters=10。更多可修改的参数及其详细解释,可以查阅模型对应任务模块的配置文件说明PaddleX通用模型配置文件参数说明。-o Train.dy2st=True 开启。output,如需指定保存路径,可通过配置文件中 -o Global.output 字段进行设置。在完成模型训练后,所有产出保存在指定的输出目录(默认为./output/)下,通常有以下产出:
train_result.json:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等;
train.log:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;config.yaml:训练配置文件,记录了本次训练的超参数的配置;.pdparams、.pdema、.pdopt.pdstate、.pdiparams、.json:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等; .pdmodel后缀文件)升级为json(现.json后缀文件),以兼容PIR体系,并获得更好的灵活性与扩展性。在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,一条命令即可完成模型的评估:
python main.py -c paddlex/configs/modules/video_detection/YOWO.yaml \
-o Global.mode=evaluate \
-o Global.dataset_dir=./dataset/video_det_examples
与模型训练类似,需要如下几步:
.yaml 配置文件路径(此处为YOWO.yaml)-o Global.mode=evaluate-o Global.dataset_dir
其他相关参数均可通过修改.yaml配置文件中的Global和Evaluate下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明。在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=./output/best_model/best_model.pdparams。
在完成模型评估后,会产出evaluate_result.json,其记录了评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包含 mAP;
在完成模型的训练和评估后,即可使用训练好的模型权重进行推理预测或者进行Python集成。
通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载示例视频到本地。
python main.py -c paddlex/configs/modules/video_detection/YOWO.yaml \
-o Global.mode=predict \
-o Predict.model_dir="./output/best_model/inference" \
-o Predict.input="HorseRiding.avi"
与模型训练和评估类似,需要如下几步:
.yaml 配置文件路径(此处为YOWO.yaml)-o Global.mode=predict-o Predict.model_dir="./output/best_model/inference"-o Predict.input="..."
其他相关参数均可通过修改.yaml配置文件中的Global和Predict下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明。模型可以直接集成到 PaddleX 产线中,也可以直接集成到您自己的项目中。
1.产线集成
视频检测模块可以集成的 PaddleX 产线有通用视频检测产线,只需要替换模型路径即可完成相关产线的视频检测模块的模型更新。在产线集成中,你可以使用高性能部署和服务化部署来部署你得到的模型。
2.模块集成
您产出的权重可以直接集成到视频检测模块中,可以参考快速集成的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。