text_detection.md 29 KB


comments: true

文本检测模块使用教程

一、概述

文本检测模块是OCR(光学字符识别)系统中的关键组成部分,负责在图像中定位和标记出包含文本的区域。该模块的性能直接影响到整个OCR系统的准确性和效率。文本检测模块通常会输出文本区域的边界框(Bounding Boxes),这些边界框将作为输入传递给文本识别模块进行后续处理。

二、支持模型列表

模型模型下载链接 检测Hmean(%) GPU推理耗时(ms)
[常规模式 / 高性能模式]
CPU推理耗时(ms)
[常规模式 / 高性能模式]
模型存储大小(MB) 介绍
PP-OCRv5_server_det 推理模型/训练模型 83.8 89.55 / 70.19 383.15 / 383.15 84.3 PP-OCRv5 的服务端文本检测模型,精度更高,适合在性能较好的服务器上部署
PP-OCRv5_mobile_det 推理模型/训练模型 79.0 10.67 / 6.36 57.77 / 28.15 4.7 PP-OCRv5 的移动端文本检测模型,效率更高,适合在端侧设备部署
PP-OCRv4_server_det 推理模型/训练模型 69.2 127.82 / 98.87 585.95 / 489.77 109 PP-OCRv4 的服务端文本检测模型,精度更高,适合在性能较好的服务器上部署
PP-OCRv4_mobile_det 推理模型/训练模型 63.8 9.87 / 4.17 56.60 / 20.79 4.7 PP-OCRv4 的移动端文本检测模型,效率更高,适合在端侧设备部署
PP-OCRv3_mobile_det 推理模型/训练模型 精度接近 PP-OCRv4_mobile_det 9.90 / 3.60 41.93 / 20.76 2.1 PP-OCRv3 的移动端文本检测模型,效率更高,适合在端侧设备部署
PP-OCRv3_server_det 推理模型/训练模型 精度接近 PP-OCRv4_server_det 119.50 / 75.00 379.35 / 318.35 102.1 PP-OCRv3 的服务端文本检测模型,精度更高,适合在性能较好的服务器上部署

测试环境说明:

      <li><b>性能测试环境</b>
          <ul>
              <li><strong>测试数据集:</strong>PaddleOCR3.0 全新构建多语种(包含中、繁、英、日),覆盖街景、网图、文档、手写、模糊、旋转、扭曲等多个场景的文本检测数据集,包含2677 张图片。</li>
              <li><strong>硬件配置:</strong>
                  <ul>
                      <li>GPU:NVIDIA Tesla T4</li>
                      <li>CPU:Intel Xeon Gold 6271C @ 2.60GHz</li>
                  </ul>
              </li>
              <li><strong>软件环境:</strong>
                  <ul>
                      <li>Ubuntu 20.04 / CUDA 11.8 / cuDNN 8.9 / TensorRT 8.6.1.6</li>
                      <li>paddlepaddle 3.0.0 / paddlex 3.0.3</li>
                  </ul>
              </li>
          </ul>
      </li>
      <li><b>推理模式说明</b></li>
    

    模式 GPU配置 CPU配置 加速技术组合
    常规模式 FP32精度 / 无TRT加速 FP32精度 / 8线程 PaddleInference
    高性能模式 选择先验精度类型和加速策略的最优组合 FP32精度 / 8线程 选择先验最优后端(Paddle/OpenVINO/TRT等)

    三、快速集成

    ❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 PaddleX本地安装教程

    几行代码即可完成文本检测模块的推理,可以任意切换该模块下的模型,您也可以将文本检测的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例图片到本地。

    from paddlex import create_model
    model = create_model(model_name="PP-OCRv5_mobile_det")
    output = model.predict("general_ocr_001.png", batch_size=1)
    for res in output:
        res.print()
        res.save_to_img(save_path="./output/")
        res.save_to_json(save_path="./output/res.json")
    

    注:PaddleX 官方模型默认从 HuggingFace 获取,如运行环境访问 HuggingFace 不便,可通过环境变量修改模型源为 BOS:PADDLE_PDX_MODEL_SOURCE="BOS",未来将支持更多主流模型源;

    运行后,得到的结果为:

    {'res': {'input_path': 'general_ocr_001.png', 'page_index': None, 'dt_polys': array([[[ 75, 549],
            ...,
            [ 77, 586]],
    
           ...,
    
           [[ 37, 408],
            ...,
            [ 39, 453]]], dtype=int16), 'dt_scores': [0.832930755107492, 0.8186143846140158, 0.8591595100376676, 0.8718863959111733]}}
    

    运行结果参数含义如下:

    • input_path:表示输入待预测图像的路径
    • page_index:如果输入是PDF文件,则表示当前是PDF的第几页,否则为 None
    • dt_polys:表示预测的文本检测框,其中每个文本检测框包含一个四边形的四个顶点。其中每个顶点都是一个列表,分别表示该顶点的x坐标和y坐标
    • dt_scores:表示预测的文本检测框的置信度

    可视化图片如下:

    相关方法、参数等说明如下:

    • create_model实例化文本检测模型(此处以PP-OCRv5_mobile_det为例),具体说明如下:
      参数 参数说明 参数类型 可选项 默认值
      model_name 模型名称 str 所有PaddleX支持的文本检测模型名称
      model_dir 模型存储路径 str
      device 模型推理设备 str 支持指定GPU具体卡号,如“gpu:0”,其他硬件具体卡号,如“npu:0”,CPU如“cpu”。 gpu:0
      limit_side_len 检测的图像边长限制 int/None
      • int: 大于0的任意整数
      • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值

      None

      limit_type 检测的图像边长限制,检测的边长限制类型 str/None
      • str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
      • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值

      None

      thresh 输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点 float/None
      • float: 大于0的任意浮点数
      • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值

      None

      box_thresh 检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域 float/None
      • float: 大于0的任意浮点数
      • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值

      None

      unclip_ratio Vatti clipping算法的扩张系数,使用该方法对文字区域进行扩张 float/None
      • float: 大于0的任意浮点数
      • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值

      None

      use_hpip 是否启用高性能推理插件 boolFalse hpi_config 高性能推理配置 dict | NoneNone
    • 其中,model_name 必须指定,指定 model_name 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 model_dir 时,使用用户自定义的模型。

    • 调用文本检测模型的 predict() 方法进行推理预测,predict() 方法参数有 inputbatch_sizelimit_side_lenlimit_typethreshbox_threshmax_candidatesunclip_ratiouse_dilation,具体说明如下:

    参数 参数说明 参数类型 可选项 默认值
    input 待预测数据,支持多种输入类型 Python Var/str/dict/list
    • Python变量,如numpy.ndarray表示的图像数据
    • 文件路径,如图像文件的本地路径:/root/data/img.jpg
    • URL链接,如图像文件的网络URL:示例
    • 本地目录,该目录下需包含待预测数据文件,如本地路径:/root/data/
    • 列表,列表元素需为上述类型数据,如[numpy.ndarray, numpy.ndarray][\"/root/data/img1.jpg\", \"/root/data/img2.jpg\"][\"/root/data1\", \"/root/data2\"]
    batch_size 批大小 int 大于0的任意整数 1
    limit_side_len 检测的图像边长限制 int/None
    • int: 大于0的任意整数
    • None: 如果设置为None, 将默认使用模型初始化的该参数值
    None
    limit_type 检测的图像边长限制,检测的边长限制类型 str/None
    • str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
    • None: 如果设置为None, 将默认使用模型初始化的该参数值
    None
    thresh 输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点 float/None
    • float: 大于0的任意浮点数
    • None: 如果设置为None, 将默认使用模型初始化的该参数值
    None
    box_thresh 检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域 float/None
    • float: 大于0的任意浮点数
    • None: 如果设置为None, 将默认使用模型初始化的该参数值
    None
    unclip_ratio Vatti clipping算法的扩张系数,使用该方法对文字区域进行扩张 float/None
    • float: 大于0的任意浮点数
    • None: 如果设置为None, 将默认使用模型初始化的该参数值
    None
    • 对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为图片、保存为json文件的操作:
    方法 方法说明 参数 参数类型 参数说明 默认值
    print() 打印结果到终端 format_json bool 是否对输出内容进行使用 JSON 缩进格式化 True
    indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
    ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
    save_to_json() 将结果保存为json格式的文件 save_path str 保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
    indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
    ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
    save_to_img() 将结果保存为图像格式的文件 save_path str 保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
    • 此外,也支持通过属性获取带结果的可视化图像和预测结果,具体如下:
    属性 属性说明
    json 获取预测的json格式的结果
    img 获取格式为dict的可视化图像

    关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考 PaddleX单模型Python脚本使用说明

    四、二次开发

    如果你追求更高精度的现有模型,可以使用 PaddleX 的二次开发能力开发更好的文本检测模型。在使用 PaddleX 开发文本检测模型之前,请务必安装 PaddleX 的 PaddleOCR 插件,安装过程可以参考 PaddleX本地安装教程

    4.1 数据准备

    在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。 此外,PaddleX 为每一个模块都提供了 Demo 数据集,您可以基于官方提供的 Demo 数据完成后续的开发。若您希望用私有数据集进行后续的模型训练,可以参考 PaddleX文本检测/文本识别任务模块数据标注教程

    4.1.1 Demo 数据下载

    您可以参考下面的命令将 Demo 数据集下载到指定文件夹:

    wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ocr_det_dataset_examples.tar -P ./dataset
    tar -xf ./dataset/ocr_det_dataset_examples.tar -C ./dataset/
    

    4.1.2 数据校验

    一行命令即可完成数据校验:

    python main.py -c paddlex/configs/modules/text_detection/PP-OCRv5_mobile_det.yaml \
        -o Global.mode=check_dataset \
        -o Global.dataset_dir=./dataset/ocr_det_dataset_examples
    

    执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息,命令运行成功后会在log中打印出Check dataset passed !信息。校验结果文件保存在./output/check_dataset_result.json,同时相关产出会保存在当前目录的./output/check_dataset目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。

    👉 校验结果详情(点击展开)

    校验结果文件具体内容为:

    {
      "done_flag": true,
      "check_pass": true,
      "attributes": {
        "train_samples": 200,
        "train_sample_paths": [
          "../dataset/ocr_det_dataset_examples/images/train_img_61.jpg",
          "../dataset/ocr_det_dataset_examples/images/train_img_289.jpg"
        ],
        "val_samples": 50,
        "val_sample_paths": [
          "../dataset/ocr_det_dataset_examples/images/val_img_61.jpg",
          "../dataset/ocr_det_dataset_examples/images/val_img_137.jpg"
        ]
      },
      "analysis": {
        "histogram": "check_dataset/histogram.png"
      },
      "dataset_path": "./dataset/ocr_det_dataset_examples",
      "show_type": "image",
      "dataset_type": "TextDetDataset"
    }
    

    上述校验结果中,check_passtrue 表示数据集格式符合要求,其他部分指标的说明如下:

    • attributes.train_samples:该数据集训练集样本数量为 200;
    • attributes.val_samples:该数据集验证集样本数量为 50;
    • attributes.train_sample_paths:该数据集训练集样本可视化图片相对路径列表;
    • attributes.val_sample_paths:该数据集验证集样本可视化图片相对路径列表;

    另外,数据集校验还对数据集中所有图片的长宽分布情况进行了分析分析,并绘制了分布直方图(histogram.png):

    4.1.3 数据集格式转换/数据集划分(可选)

    在您完成数据校验之后,可以通过修改配置文件或是追加超参数的方式对数据集的格式进行转换,也可以对数据集的训练/验证比例进行重新划分。

    👉 格式转换/数据集划分详情(点击展开)

    (1)数据集格式转换

    文本检测不支持数据格式转换。

    (2)数据集划分

    数据集划分的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:

    • CheckDataset:
    • split:
    • enable: 是否进行重新划分数据集,为 True 时进行数据集格式转换,默认为 False
    • train_percent: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证与 val_percent 的值之和为100;

    例如,您想重新划分数据集为 训练集占比90%、验证集占比10%,则需将配置文件修改为:

    ......
    CheckDataset:
      ......
      split:
        enable: True
        train_percent: 90
        val_percent: 10
      ......
    

    随后执行命令:

    python main.py -c paddlex/configs/modules/text_detection/PP-OCRv5_mobile_det.yaml \
        -o Global.mode=check_dataset \
        -o Global.dataset_dir=./dataset/ocr_det_dataset_examples
    

    数据划分执行之后,原有标注文件会被在原路径下重命名为 xxx.bak

    以上参数同样支持通过追加命令行参数的方式进行设置:

    python main.py -c paddlex/configs/modules/text_detection/PP-OCRv5_mobile_det.yaml  \
        -o Global.mode=check_dataset \
        -o Global.dataset_dir=./dataset/ocr_det_dataset_examples \
        -o CheckDataset.split.enable=True \
        -o CheckDataset.split.train_percent=90 \
        -o CheckDataset.split.val_percent=10
    

    4.2 模型训练

    一条命令即可完成模型的训练,以此处 PP-OCRv5 移动端文本检测模型(PP-OCRv5_mobile_det)的训练为例:

    python main.py -c paddlex/configs/modules/text_detection/PP-OCRv5_mobile_det.yaml \
        -o Global.mode=train \
        -o Global.dataset_dir=./dataset/ocr_det_dataset_examples
    

    需要如下几步:

    • 指定模型的.yaml 配置文件路径(此处为PP-OCRv5_mobile_det.yaml,训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以查阅PaddleX模型列表(CPU/GPU)
    • 指定模式为模型训练:-o Global.mode=train
    • 指定训练数据集路径:-o Global.dataset_dir
    • 其他相关参数均可通过修改.yaml配置文件中的GlobalTrain下的字段来进行设置,也可以通过在命令行中追加参数来进行调整。如指定前 2 卡 gpu 训练:-o Global.device=gpu:0,1;设置训练轮次数为 10:-o Train.epochs_iters=10。更多可修改的参数及其详细解释,可以查阅模型对应任务模块的配置文件说明 PaddleX通用模型配置文件参数说明
    • 新特性:Paddle 3.0 版本支持了 CINN 神经网络编译器,在使用 GPU 设备训练时,不同模型有不同程度的训练加速效果。在 PaddleX 中训练模型时,可通过指定参数 -o Train.dy2st=True 开启。
    👉 更多说明(点击展开)
    • 模型训练过程中,PaddleX 会自动保存模型权重文件,默认为output,如需指定保存路径,可通过配置文件中 -o Global.output 字段进行设置。
    • PaddleX 对您屏蔽了动态图权重和静态图权重的概念。在模型训练的过程中,会同时产出动态图和静态图的权重,在模型推理时,默认选择静态图权重推理。
    • 在完成模型训练后,所有产出保存在指定的输出目录(默认为./output/)下,通常有以下产出:

    • train_result.json:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等;

    • train.log:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;
    • config.yaml:训练配置文件,记录了本次训练的超参数的配置;
    • .pdparams.pdema.pdopt.pdstate.pdiparams.json:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;
    • 【注意】:Paddle 3.0.0 对于静态图网络结构信息的存储格式,由protobuf(原.pdmodel后缀文件)升级为json(现.json后缀文件),以兼容PIR体系,并获得更好的灵活性与扩展性。

    4.3 模型评估

    在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,一条命令即可完成模型的评估:

    python main.py -c paddlex/configs/modules/text_detection/PP-OCRv5_mobile_det.yaml \
        -o Global.mode=evaluate \
        -o Global.dataset_dir=./dataset/ocr_det_dataset_examples
    

    与模型训练类似,需要如下几步:

    • 指定模型的.yaml 配置文件路径(此处为PP-OCRv5_mobile_det.yaml
    • 指定模式为模型评估:-o Global.mode=evaluate
    • 指定验证数据集路径:-o Global.dataset_dir 其他相关参数均可通过修改.yaml配置文件中的GlobalEvaluate下的字段来进行设置,详细请参考 PaddleX通用模型配置文件参数说明
    👉 更多说明(点击展开)

    在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=./output/best_accuracy/best_accuracy.pdparams

    在完成模型评估后,会产出evaluate_result.json,其记录了评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包含 precisionrecallhmean

    4.4 模型推理和模型集成

    在完成模型的训练和评估后,即可使用训练好的模型权重进行推理预测或者进行Python集成。

    4.4.1 模型推理

    通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载示例图片到本地。

    python main.py -c paddlex/configs/modules/text_detection/PP-OCRv5_mobile_det.yaml \
        -o Global.mode=predict \
        -o Predict.model_dir="./output/best_accuracy/inference" \
        -o Predict.input="general_ocr_001.png"
    

    与模型训练和评估类似,需要如下几步:

    • 指定模型的.yaml 配置文件路径(此处为PP-OCRv5_mobile_det.yaml
    • 指定模式为模型推理预测:-o Global.mode=predict
    • 指定模型权重路径:-o Predict.model_dir="./output/best_accuracy/inference"
    • 指定输入数据路径:-o Predict.input="..." 其他相关参数均可通过修改.yaml配置文件中的GlobalPredict下的字段来进行设置,详细请参考 PaddleX通用模型配置文件参数说明

    • 也可以用 PaddleX 的 wheel 包进行推理,方便地将模型集成到您自己的项目中。

      4.4.2 模型集成

      模型可以直接集成到 PaddleX 产线中,也可以直接集成到您自己的项目中。

    1.产线集成

    文本检测模块可以集成的 PaddleX 产线有通用 OCR 产线表格识别产线文档场景信息抽取v3产线(PP-ChatOCRv3-doc),只需要替换模型路径即可完成相关产线的文本检测模块的模型更新。

    2.模块集成

    您产出的权重可以直接集成到文本检测模块中,可以参考快速集成的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。

    您也可以利用 PaddleX 高性能推理插件来优化您模型的推理过程,进一步提升效率,详细的流程请参考PaddleX高性能推理指南