---
comments: true
---
# 印章文本检测模块使用教程
## 一、概述
印章文本检测模块通常会输出文本区域的多点边界框(Bounding Boxes),这些边界框将作为输入传递给弯曲矫正和文本识别模块进行后续处理,识别出印章的文字内容。印章文本的识别是文档处理的一部分,在很多场景都有用途,例如合同比对,出入库审核以及发票报销审核等场景。印章文本检测模块是OCR(光学字符识别)中的子任务,负责在图像中定位和标记出包含印章文本的区域。该模块的性能直接影响到整个印章文本OCR系统的准确性和效率。
## 二、支持模型列表
| 模型 | 模型下载链接 |
检测Hmean(%) |
GPU推理耗时(ms) [常规模式 / 高性能模式] |
CPU推理耗时(ms) [常规模式 / 高性能模式] |
模型存储大小(M) |
介绍 |
| PP-OCRv4_server_seal_det | 推理模型/训练模型 |
98.40 |
74.75 / 67.72 |
382.55 / 382.55 |
109 |
PP-OCRv4的服务端印章文本检测模型,精度更高,适合在较好的服务器上部署 |
| PP-OCRv4_mobile_seal_det | 推理模型/训练模型 |
96.36 |
7.82 / 3.09 |
48.28 / 23.97 |
4.6 |
PP-OCRv4的移动端印章文本检测模型,效率更高,适合在端侧部署 |
**测试环境说明:**
- **性能测试环境**
- **测试数据集**:PaddleX自建数据集,包含500张圆形印章图像。
- **硬件配置**:
- GPU:NVIDIA Tesla T4
- CPU:Intel Xeon Gold 6271C @ 2.60GHz
- 其他环境:Ubuntu 20.04 / cuDNN 8.6 / TensorRT 8.5.2.2
- **推理模式说明**
| 模式 | GPU配置 | CPU配置 | 加速技术组合 |
|-------------|----------------------------------|------------------|---------------------------------------------|
| 常规模式 | FP32精度 / 无TRT加速 | FP32精度 / 8线程 | PaddleInference |
| 高性能模式 | 选择先验精度类型和加速策略的最优组合 | FP32精度 / 8线程 | 选择先验最优后端(Paddle/OpenVINO/TRT等) |
## 三、快速集成
> ❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 [PaddleX本地安装教程](../../../installation/installation.md)
完成 wheel 包的安装后,几行代码即可完成印章文本检测模块的推理,可以任意切换该模块下的模型,您也可以将印章文本检测的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载[示例图片](https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/seal_text_det.png)到本地。
```python
from paddlex import create_model
model = create_model(model_name="PP-OCRv4_server_seal_det")
output = model.predict("seal_text_det.png", batch_size=1)
for res in output:
res.print()
res.save_to_img(save_path="./output/")
res.save_to_json(save_path="./output/res.json")
```
运行后,得到的结果为:
```bash
{'res': {'input_path': 'seal_text_det.png', 'dt_polys': [[[165, 469], [202, 500], [251, 523], [309, 535], [374, 527], [425, 506], [465, 475], [469, 473], [473, 473], [478, 476], [508, 506], [510, 510], [510, 514], [507, 521], [455, 561], [452, 562], [391, 586], [389, 587], [310, 597], [308, 597], [235, 583], [232, 583], [171, 554], [170, 552], [121, 510], [118, 506], [117, 503], [118, 498], [121, 496], [153, 469], [157, 466], [161, 466]], [[444, 444], [448, 447], [450, 450], [450, 453], [450, 497], [449, 501], [446, 503], [443, 505], [440, 506], [197, 506], [194, 505], [190, 503], [189, 499], [187, 493], [186, 490], [187, 453], [188, 449], [190, 446], [194, 444], [197, 443], [441, 443]], [[466, 346], [471, 350], [473, 351], [476, 356], [477, 361], [477, 425], [477, 430], [474, 434], [470, 437], [463, 439], [175, 440], [170, 439], [166, 437], [163, 432], [161, 426], [160, 361], [161, 357], [163, 352], [168, 349], [171, 347], [177, 345], [462, 345]], [[324, 38], [484, 92], [490, 95], [492, 97], [586, 227], [588, 231], [589, 236], [590, 384], [590, 390], [587, 394], [583, 397], [579, 399], [571, 398], [508, 379], [503, 377], [500, 374], [497, 369], [497, 366], [494, 260], [429, 170], [324, 136], [207, 173], [143, 261], [139, 366], [138, 370], [136, 375], [131, 378], [129, 379], [66, 397], [61, 397], [56, 397], [51, 393], [49, 390], [47, 383], [49, 236], [50, 230], [51, 227], [148, 96], [151, 92], [156, 90], [316, 38], [320, 37]]], 'dt_scores': [0.9929380286534535, 0.9980056201238314, 0.9936831226022099, 0.9884004535508197]}}
```
运行结果参数含义如下:
- `input_path`:表示输入待预测图像的路径
- `dt_polys`:表示预测的文本检测框,其中每个文本检测框包含一个多边形的多个顶点。其中每个顶点都是一个列表,分别表示该顶点的x坐标和y坐标
- `dt_scores`:表示预测的文本检测框的置信度
可视化图片如下:
相关方法、参数等说明如下:
* `create_model`实例化文本检测模型(此处以`PP-OCRv4_server_seal_det`为例),具体说明如下:
| 参数 |
参数说明 |
参数类型 |
可选项 |
默认值 |
model_name |
模型名称 |
str |
所有PaddleX支持的印章文本检测模型名称 |
无 |
model_dir |
模型存储路径 |
str |
无 |
无 |
limit_side_len |
检测的图像边长限制 |
int/None |
- int: 大于0的任意整数
- None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
|
None |
limit_type |
检测的图像边长限制,检测的边长限制类型 |
str/None |
- str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
- None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
|
None |
thresh |
输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点 |
float/None |
- float: 大于0的任意浮点数
- None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
|
None |
box_thresh |
检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域 |
float/None |
- float: 大于0的任意浮点数
- None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
|
None |
max_candidates |
输出的最大文本框数量 |
int/None |
- int: 大于0的任意整数
- None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
|
None |
unclip_ratio |
Vatti clipping算法的扩张系数,使用该方法对文字区域进行扩张 |
float/None |
- float: 大于0的任意浮点数
- None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
|
None |
use_dilation |
是否对分割结果进行膨胀 |
bool/None |
True/False/None |
None |
use_hpip |
是否启用高性能推理 |
bool |
无 |
False |
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用印章文本检测模型的 `predict()` 方法进行推理预测,`predict()` 方法参数有 `input`、 `batch_size`、 `limit_side_len`、 `limit_type`、 `thresh`、 `box_thresh`、 `max_candidates`、`unclip_ratio`和`use_dilation`,具体说明如下:
| 参数 |
参数说明 |
参数类型 |
可选项 |
默认值 |
input |
待预测数据,支持多种输入类型 |
Python Var/str/dict/list |
- Python变量,如
numpy.ndarray表示的图像数据
- 文件路径,如图像文件的本地路径:
/root/data/img.jpg
- URL链接,如图像文件的网络URL:示例
- 本地目录,该目录下需包含待预测数据文件,如本地路径:
/root/data/
- 列表,列表元素需为上述类型数据,如
[numpy.ndarray, numpy.ndarray],[\"/root/data/img1.jpg\", \"/root/data/img2.jpg\"],[\"/root/data1\", \"/root/data2\"]
|
无 |
batch_size |
批大小 |
int |
大于0的任意整数 |
1 |
limit_side_len |
检测的图像边长限制 |
int/None |
- int: 大于0的任意整数
- None: 如果设置为None, 将默认使用模型初始化的该参数值
|
None |
limit_type |
检测的图像边长限制,检测的边长限制类型 |
str/None |
- str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
- None: 如果设置为None, 将默认使用模型初始化的该参数值
|
None |
thresh |
输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点 |
float/None |
- float: 大于0的任意浮点数
- None: 如果设置为None, 将默认使用模型初始化的该参数值
|
None |
box_thresh |
检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域 |
float/None |
- float: 大于0的任意浮点数
- None: 如果设置为None, 将默认使用模型初始化的该参数值
|
None |
max_candidates |
输出的最大文本框数量 |
int/None |
- int: 大于0的任意整数
- None: 如果设置为None, 将默认使用模型初始化的该参数值
|
None |
unclip_ratio |
Vatti clipping算法的扩张系数,使用该方法对文字区域进行扩张 |
float/None |
- float: 大于0的任意浮点数
- None: 如果设置为None, 将默认使用模型初始化的该参数值
|
None |
use_dilation |
是否对分割结果进行膨胀 |
bool/None |
True/False/None |
None |
* 对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为图片、保存为`json`文件的操作:
| 方法 |
方法说明 |
参数 |
参数类型 |
参数说明 |
默认值 |
print() |
打印结果到终端 |
format_json |
bool |
是否对输出内容进行使用 JSON 缩进格式化 |
True |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 |
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
save_to_json() |
将结果保存为json格式的文件 |
save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 |
无 |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 |
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
save_to_img() |
将结果保存为图像格式的文件 |
save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 |
无 |
* 此外,也支持通过属性获取带结果的可视化图像和预测结果,具体如下:
| 属性 |
属性说明 |
json |
获取预测的json格式的结果 |
img |
获取格式为dict的可视化图像 |
关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考[PaddleX单模型Python脚本使用说明](../../instructions/model_python_API.md)。
## 四、二次开发
如果你追求更高精度的现有模型,可以使用PaddleX的二次开发能力,开发更好的印章文本检测模型。在使用PaddleX开发印章文本检测模型之前,请务必安装 PaddleOCR 插件,安装过程可以参考[PaddleX本地安装教程](../../../installation/installation.md)。
### 4.1 数据准备
在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX 为每一个模块都提供了 Demo 数据集,您可以基于官方提供的 Demo 数据完成后续的开发。若您希望用私有数据集进行后续的模型训练,可以参考[PaddleX文本检测/文本识别任务模块数据标注教程](../../../data_annotations/ocr_modules/text_detection_recognition.md)。
#### 4.1.1 Demo 数据下载
您可以参考下面的命令将 Demo 数据集下载到指定文件夹:
```bash
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ocr_curve_det_dataset_examples.tar -P ./dataset
tar -xf ./dataset/ocr_curve_det_dataset_examples.tar -C ./dataset/
```
#### 4.1.2 数据校验
一行命令即可完成数据校验:
```bash
python main.py -c paddlex/configs/modules/seal_text_detection/PP-OCRv4_server_seal_det.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/ocr_curve_det_dataset_examples
```
执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息,命令运行成功后会在log中打印出`Check dataset passed !`信息。校验结果文件保存在`./output/check_dataset_result.json`,同时相关产出会保存在当前目录的`./output/check_dataset`目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。
👉 校验结果详情(点击展开)
校验结果文件具体内容为:
{
"done_flag": true,
"check_pass": true,
"attributes": {
"train_samples": 606,
"train_sample_paths": [
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug07834.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug09943.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug04079.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug05701.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug08324.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug07451.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug09562.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug08237.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug01788.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug06481.png"
],
"val_samples": 152,
"val_sample_paths": [
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug03724.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug06456.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug04029.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug03603.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug05454.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug06269.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug00624.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug02818.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug00538.png",
"..\/ocr_curve_det_dataset_examples\/images\/circle_Aug04935.png"
]
},
"analysis": {
"histogram": "check_dataset\/histogram.png"
},
"dataset_path": ".\/ocr_curve_det_dataset_examples",
"show_type": "image",
"dataset_type": "TextDetDataset"
}
上述校验结果中,check_pass 为 True 表示数据集格式符合要求,其他部分指标的说明如下:
attributes.train_samples:该数据集训练集样本数量为 606;
attributes.val_samples:该数据集验证集样本数量为 152;
attributes.train_sample_paths:该数据集训练集样本可视化图片相对路径列表;
attributes.val_sample_paths:该数据集验证集样本可视化图片相对路径列表;
数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):

#### 4.1.3 数据集格式转换/数据集划分(可选)
在您完成数据校验之后,可以通过修改配置文件或是追加超参数的方式对数据集的格式进行转换,也可以对数据集的训练/验证比例进行重新划分。您可以展开查看详情。
👉 格式转换/数据集划分详情(点击展开)
(1)数据集格式转换
印章文本检测不支持数据格式转换。
(2)数据集划分
数据集划分的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:
CheckDataset:
split:
enable: 是否进行重新划分数据集,为 True 时进行数据集格式转换,默认为 False;
train_percent: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证与 val_percent 的值之和为100;
val_percent: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证与 train_percent 的值之和为100;
例如,您想重新划分数据集为 训练集占比90%、验证集占比10%,则需将配置文件修改为:
......
CheckDataset:
......
split:
enable: True
train_percent: 90
val_percent: 10
......
随后执行命令:
python main.py -c paddlex/configs/modules/seal_text_detection/PP-OCRv4_server_seal_det.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/ocr_curve_det_dataset_examples
数据划分执行之后,原有标注文件会被在原路径下重命名为 xxx.bak。
以上参数同样支持通过追加命令行参数的方式进行设置:
python main.py -c paddlex/configs/modules/seal_text_detection/PP-OCRv4_server_seal_det.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/ocr_curve_det_dataset_examples \
-o CheckDataset.split.enable=True \
-o CheckDataset.split.train_percent=90 \
-o CheckDataset.split.val_percent=10
### 4.2 模型训练
一条命令即可完成模型的训练,以此处PP-OCRv4服务端印章文本检测模型(PP-OCRv4_server_seal_det)的训练为例:
```bash
python main.py -c paddlex/configs/modules/seal_text_detection/PP-OCRv4_server_seal_det.yaml \
-o Global.mode=train \
-o Global.dataset_dir=./dataset/ocr_curve_det_dataset_examples
```
需要如下几步:
* 指定模型的`.yaml` 配置文件路径(此处为`PP-OCRv4_server_seal_det.yaml`,训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以查阅[PaddleX模型列表(CPU/GPU)](../../../support_list/models_list.md))
* 指定模式为模型训练:`-o Global.mode=train`
* 指定训练数据集路径:`-o Global.dataset_dir`
其他相关参数均可通过修改`.yaml`配置文件中的`Global`和`Train`下的字段来进行设置,也可以通过在命令行中追加参数来进行调整。如指定前 2 卡 gpu 训练:`-o Global.device=gpu:0,1`;设置训练轮次数为 10:`-o Train.epochs_iters=10`。更多可修改的参数及其详细解释,可以查阅模型对应任务模块的配置文件说明[PaddleX通用模型配置文件参数说明](../../instructions/config_parameters_common.md)。
👉 更多说明(点击展开)
### 4.3 模型评估
在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,一条命令即可完成模型的评估:
```bash
python main.py -c paddlex/configs/modules/seal_text_detection/PP-OCRv4_server_seal_det.yaml \
-o Global.mode=evaluate \
-o Global.dataset_dir=./dataset/ocr_curve_det_dataset_examples
```
与模型训练类似,需要如下几步:
* 指定模型的`.yaml` 配置文件路径(此处为`PP-OCRv4_server_seal_det.yaml`)
* 指定模式为模型评估:`-o Global.mode=evaluate`
* 指定验证数据集路径:`-o Global.dataset_dir`
其他相关参数均可通过修改`.yaml`配置文件中的`Global`和`Evaluate`下的字段来进行设置,详细请参考[PaddleX通用模型配置文件参数说明](../../instructions/config_parameters_common.md)。
👉 更多说明(点击展开)
在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=./output/best_accuracy/best_accuracy.pdparams。
在完成模型评估后,通常有以下产出:
在完成模型评估后,会产出evaluate_result.json,其记录了评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包含precision,recall和hmean.
### 4.4 模型推理和模型集成
在完成模型的训练和评估后,即可使用训练好的模型权重进行推理预测或者进行Python集成。
#### 4.4.1 模型推理
通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载[示例图片](https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/seal_text_det.png)到本地。
```bash
python main.py -c paddlex/configs/modules/seal_text_detection/PP-OCRv4_server_seal_det.yaml \
-o Global.mode=predict \
-o Predict.model_dir="./output/best_accuracy/inference" \
-o Predict.input="seal_text_det.png"
```
与模型训练和评估类似,需要如下几步:
* 指定模型的`.yaml` 配置文件路径(此处为`PP-OCRv4_server_seal_det.yaml`)
* 指定模式为模型推理预测:`-o Global.mode=predict`
* 指定模型权重路径:`-o Predict.model_dir="./output/best_accuracy/inference"`
* 指定输入数据路径:`-o Predict.input="..."`
其他相关参数均可通过修改`.yaml`配置文件中的`Global`和`Predict`下的字段来进行设置,详细请参考[PaddleX通用模型配置文件参数说明](../../instructions/config_parameters_common.md)。
#### 4.4.2 模型集成
模型可以直接集成到PaddleX产线中,也可以直接集成到您自己的项目中。
1.产线集成
印章文本检测模块可以集成的PaddleX产线有[文档场景信息抽取v3产线(PP-ChatOCRv3-doc)](../../../pipeline_usage/tutorials/information_extraction_pipelines/document_scene_information_extraction_v3.md),只需要替换模型路径即可完成印章文本检测模块的模型更新。在产线集成中,你可以使用高性能部署和服务化部署来部署你得到的模型。
2.模块集成
您产出的权重可以直接集成到印章文本检测模块中,可以参考[快速集成](#三快速集成)的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。
您也可以利用 PaddleX 高性能推理插件来优化您模型的推理过程,进一步提升效率,详细的流程请参考[PaddleX高性能推理指南](../../../pipeline_deploy/high_performance_inference.md)。