视频检测是一种识别和定位视频内容中特定对象或事件的技术,广泛应用于安防监控、交通管理和行为分析等领域。该技术能够实时捕捉和分析视频中的动态变化,如人员活动、车辆流动及异常事件等。通过深度学习模型,视频检测能够高效提取视频中的空间和时间特征,实现精准识别和定位。视频检测不仅提升了监控系统的智能化程度,还为提高安全性和运营效率提供了重要支撑。随着技术的发展,视频检测将在更多场景中发挥关键作用。
视频检测产线中包含视频检测模块包含的模型如下。
推理耗时仅包含模型推理耗时,不包含前后处理耗时。
视频检测模块(可选):
| 模型 | 模型下载链接 | Frame-mAP(@ IoU 0.5) | 模型存储大小(MB) | 介绍 |
|---|---|---|---|---|
| YOWO | 推理模型/训练模型 | 80.94 | 462.891 | YOWO是具有两个分支的单阶段网络。一个分支通过2D-CNN提取关键帧(即当前帧)的空间特征,而另一个分支则通过3D-CNN获取由先前帧组成的剪辑的时空特征。为准确汇总这些特征,YOWO使用了一种通道融合和关注机制,最大程度地利用了通道间的依赖性。最后将融合后的特征进行帧级检测。 |
测试数据集:UCF101-24 测试数据集。
PaddleX 支持在本地使用命令行或 Python 体验产线的效果。
在本地使用通用视频检测产线前,请确保您已经按照PaddleX本地安装教程完成了PaddleX的wheel包安装。如果您希望选择性安装依赖,请参考安装教程中的相关说明。该产线对应的依赖分组为 video。
一行命令即可快速体验视频检测产线效果,使用 测试文件,并将 --input 替换为本地路径,进行预测
paddlex --pipeline video_detection --input HorseRiding.avi --device gpu:0 --save_path output
相关的参数说明可以参考2.1.2 Python脚本方式集成中的参数说明。
运行后,会将结果打印到终端上,结果如下:
运行结果参数说明可以参考2.1.2 Python脚本方式集成中的结果解释。
可视化结果保存在save_path下,可视化结果如下:
上述命令行是为了快速体验查看效果,一般来说,在项目中,往往需要通过代码集成,您可以通过几行代码即可完成产线的快速推理,推理代码如下:
from paddlex import create_pipeline
pipeline = create_pipeline(pipeline="video_detection")
output = pipeline.predict(input="HorseRiding.avi")
for res in output:
res.print() ## 打印预测的结构化输出
res.save_to_video(save_path="./output/") ## 保存结果可视化视频
res.save_to_json(save_path="./output/") ## 保存预测的结构化输出
在上述 Python 脚本中,执行了如下几个步骤:
(1)实例化 create_pipeline 实例化产线对象:具体参数说明如下:
| 参数 | 参数说明 | 参数类型 | 默认值 | |
|---|---|---|---|---|
pipeline |
产线名称或是产线配置文件路径。如为产线名称,则必须为 PaddleX 所支持的产线。 | str |
None | |
config |
产线具体的配置信息(如果和pipeline同时设置,优先级高于pipeline,且要求产线名和pipeline一致)。 |
dict[str, Any] |
None |
|
device |
产线推理设备。支持指定GPU具体卡号,如“gpu:0”,其他硬件具体卡号,如“npu:0”,CPU如“cpu”。 | str |
gpu:0 |
|
use_hpip |
是否启用高性能推理插件。如果为 None,则使用配置文件或 config 中的配置。 |
bool | None |
无 | None |
hpi_config |
高性能推理配置 | dict | None |
无 | None |
(2)调用视频检测产线对象的 predict() 方法进行推理预测。该方法将返回一个 generator。以下是 predict() 方法的参数及其说明:
| 参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
|---|---|---|---|---|
input |
待预测视频数据,支持多种输入类型,必填 | Python str|list |
|
None |
nms_thresh |
非极大值抑制(Non-Maximum Suppression, NMS)过程中的IoU阈值参数 | float|None |
|
None |
score_thresh |
预测置信度阈值 | float|None |
|
None |
(3)对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为视频、保存为json文件的操作:
| 方法 | 方法说明 | 参数 | 参数类型 | 参数说明 | 默认值 |
|---|---|---|---|---|---|
print() |
打印结果到终端 | format_json |
bool |
是否对输出内容进行使用 JSON 缩进格式化 |
True |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
||
save_to_json() |
将结果保存为json格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
||
| save_to_video | 将结果保存为视频格式的文件 | save_path |
str |
保存的文件路径,支持目录或文件路径 | 无 |
调用print() 方法会将结果打印到终端,打印到终端的内容解释如下:
input_path: (str) 待预测图像的输入路径
result: (List[List[List]]) 预测结果,每个列表表示一帧图像的预测结果,每帧结果包含以下内容:
[xmin, ymin, xmax, ymax]: (list) 边界框坐标,格式为[xmin, ymin, xmax, ymax],其中(xmin,ymin)是左上角坐标点,(xmax,ymax)是右下角坐标点float: 目标框的置信度,浮点数str: 目标框的所属类别,字符串调用save_to_json() 方法会将上述内容保存到指定的save_path中,如果指定为目录,则保存的路径为save_path/{your_img_basename}_res.json,如果指定为文件,则直接保存到该文件中。由于json文件不支持保存numpy数组,因此会将其中的numpy.array类型转换为列表形式。
调用save_to_video() 方法会将可视化结果保存到指定的save_path中,如果指定为目录,则保存的路径为save_path/{your_img_basename}_res.{your_img_extension},如果指定为文件,则直接保存到该文件中。
此外,也支持通过属性获取预测结果,具体如下:
| 属性 | 属性说明 |
|---|---|
json |
获取预测的 json 格式的结果 |
json 属性获取的预测结果为dict类型的数据,相关内容与调用 save_to_json() 方法保存的内容一致。此外,您可以获取 video_detection 产线配置文件,并加载配置文件进行预测。可执行如下命令将结果保存在 my_path 中:
paddlex --get_pipeline_config video_detection --save_path ./my_path
若您获取了配置文件,即可对 video_detection 产线各项配置进行自定义,只需要修改 create_pipeline 方法中的 pipeline 参数值为产线配置文件路径即可。示例如下:
例如,若您的配置文件保存在 ./my_path/video_detection*.yaml ,则只需执行:
from paddlex import create_pipeline
pipeline = create_pipeline(pipeline="./my_path/video_detection.yaml")
output = pipeline.predict(input="HorseRiding.avi")
for res in output:
res.print() ## 打印预测的结构化输出
res.save_to_video("./output/") ## 保存结果可视化视频
res.save_to_json("./output/") ## 保存预测的结构化输出
注: 配置文件中的参数为产线初始化参数,如果希望更改 video_detection 产线初始化参数,可以直接修改配置文件中的参数,并加载配置文件进行预测。同时,CLI 预测也支持传入配置文件,--pipeline 指定配置文件的路径即可。
如果产线可以达到您对产线推理速度和精度的要求,您可以直接进行开发集成/部署。
若您需要将产线直接应用在您的Python项目中,可以参考 2.2 Python脚本方式中的示例代码。
此外,PaddleX 也提供了其他三种部署方式,详细说明如下:
🚀 高性能推理:在实际生产环境中,许多应用对部署策略的性能指标(尤其是响应速度)有着较严苛的标准,以确保系统的高效运行与用户体验的流畅性。为此,PaddleX 提供高性能推理插件,旨在对模型推理及前后处理进行深度性能优化,实现端到端流程的显著提速,详细的高性能推理流程请参考PaddleX高性能推理指南。
☁️ 服务化部署:服务化部署是实际生产环境中常见的一种部署形式。通过将推理功能封装为服务,客户端可以通过网络请求来访问这些服务,以获取推理结果。PaddleX 支持多种产线服务化部署方案,详细的产线服务化部署流程请参考PaddleX服务化部署指南。
以下是基础服务化部署的API参考与多语言服务调用示例:
对于服务提供的主要操作:
200,响应体的属性如下:| 名称 | 类型 | 含义 |
|---|---|---|
logId |
string |
请求的UUID。 |
errorCode |
integer |
错误码。固定为0。 |
errorMsg |
string |
错误说明。固定为"Success"。 |
result |
object |
操作结果。 |
| 名称 | 类型 | 含义 |
|---|---|---|
logId |
string |
请求的UUID。 |
errorCode |
integer |
错误码。与响应状态码相同。 |
errorMsg |
string |
错误说明。 |
服务提供的主要操作如下:
infer对视频进行分类。
POST /video-detection
| 名称 | 类型 | 含义 | 是否必填 |
|---|---|---|---|
video |
string |
服务器可访问的视频文件的URL或视频文件内容的Base64编码结果。 | 是 |
nmsThresh |
number | null |
请参阅产线对象中 predict 方法的 nms_thresh 参数相关说明。 |
否 |
scoreThresh |
number | null |
请参阅产线对象中 predict 方法的 score_thresh 参数相关说明。 |
否 |
result具有如下属性:| 名称 | 类型 | 含义 |
|---|---|---|
frames |
array |
每一帧的检测结果。 |
frames中的每个元素为一个object,具有如下属性:
| 名称 | 类型 | 含义 |
|---|---|---|
index |
integer |
从 0 开始的帧编号 |
detectedObjects |
array |
目标的位置、类别等信息。 |
detectedObjects中的每个元素为一个object,具有如下属性:
| 名称 | 类型 | 含义 |
|---|---|---|
bbox |
array |
目标位置。数组中元素依次为边界框左上角x坐标、左上角y坐标、右下角x坐标以及右下角y坐标。 |
categoryName |
string |
目标类别名称。 |
score |
number |
目标得分。 |
多语言调用服务示例
Python
import base64
import requests
API_URL = "http://localhost:8080/video-detection" # 服务URL
video_path = "./demo.mp4"
对本地视频进行Base64编码
with open(video_path, "rb") as file:
video_bytes = file.read()
video_data = base64.b64encode(video_bytes).decode("ascii")
payload = {"video": video_data} # Base64编码的文件内容或者视频URL
调用API
response = requests.post(API_URL, json=payload)
处理接口返回数据
assert response.status_code == 200
result = response.json()["result"]
print("\nFrames:")
print(result["frames"])
📱 端侧部署:端侧部署是一种将计算和数据处理功能放在用户设备本身上的方式,设备可以直接处理数据,而不需要依赖远程的服务器。PaddleX 支持将模型部署在 Android 等端侧设备上,详细的端侧部署流程请参考PaddleX端侧部署指南。 您可以根据需要选择合适的方式部署模型产线,进而进行后续的 AI 应用集成。
如果通用视频检测产线提供的默认模型权重在您的场景中,精度或速度不满意,您可以尝试利用您自己拥有的特定领域或应用场景的数据对现有模型进行进一步的微调,以提升通用视频检测产线的在您的场景中的识别效果。
由于通用视频检测产线包含视频检测模块,如果模型产线的效果不及预期,那么您需要参考视频检测模块开发教程中的二次开发章节,使用您的私有数据集对视频检测模型进行微调。
当您使用私有数据集完成微调训练后,可获得本地模型权重文件。
若您需要使用微调后的模型权重,只需对产线配置文件做修改,将微调后模型权重的本地路径替换至产线配置文件中的对应位置即可:
......
Pipeline:
model: YOWO #可修改为微调后模型的本地路径
device: "gpu"
batch_size: 1
......
随后, 参考本地体验中的命令行方式或 Python 脚本方式,加载修改后的产线配置文件即可。
PaddleX 支持英伟达 GPU、昆仑芯 XPU、昇腾 NPU和寒武纪 MLU 等多种主流硬件设备,仅需修改 --device 参数即可完成不同硬件之间的无缝切换。
例如,您使用昇腾 NPU 进行视频检测产线的推理,使用的 CLI 命令为:
paddlex --pipeline video_detection --input HorseRiding.avi --device npu:0
当然,您也可以在 Python 脚本中 create_pipeline() 时或者 predict() 时指定硬件设备。
若您想在更多种类的硬件上使用通用视频检测产线,请参考PaddleX多硬件使用指南。