---
comments: true
---
# 表格结构识别模块使用教程
## 一、概述
表格结构识别是表格识别系统中的重要组成部分,能够将不可编辑表格图片转换为可编辑的表格形式(例如html)。表格结构识别的目标是对表格的行、列和单元格位置进行识别,该模块的性能直接影响到整个表格识别系统的准确性和效率。表格结构识别模块通常会输出表格区域的html代码或Latex代码,这些代码将作为输入传递给表格内容识别模块进行后续处理。
## 二、支持模型列表
> 推理耗时仅包含模型推理耗时,不包含前后处理耗时。
| 模型 | 模型下载链接 |
精度(%) |
GPU推理耗时(ms) [常规模式 / 高性能模式] |
CPU推理耗时(ms) [常规模式 / 高性能模式] |
模型存储大小(MB) |
介绍 |
| SLANet |
推理模型/训练模型 |
59.52 |
23.96 / 21.75 |
- / 43.12 |
6.9 |
SLANet 是百度飞桨视觉团队自研的表格结构识别模型。该模型通过采用 CPU 友好型轻量级骨干网络 PP-LCNet、高低层特征融合模块 CSP-PAN、结构与位置信息对齐的特征解码模块 SLA Head,大幅提升了表格结构识别的精度和推理速度。 |
| SLANet_plus |
推理模型/训练模型 |
63.69 |
23.43 / 22.16 |
- / 41.80 |
6.9 |
SLANet_plus 是百度飞桨视觉团队自研的表格结构识别模型 SLANet 的增强版。相较于 SLANet,SLANet_plus 对无线表、复杂表格的识别能力得到了大幅提升,并降低了模型对表格定位准确性的敏感度,即使表格定位出现偏移,也能够较准确地进行识别。
|
| SLANeXt_wired |
推理模型/训练模型 |
69.65 |
85.92 / 85.92 |
- / 501.66 |
351M |
SLANeXt 系列是百度飞桨视觉团队自研的新一代表格结构识别模型。相较于 SLANet 和 SLANet_plus,SLANeXt 专注于对表格结构进行识别,并且对有线表格(wired)和无线表格(wireless)的识别分别训练了专用的权重,对各类型表格的识别能力都得到了明显提高,特别是对有线表格的识别能力得到了大幅提升。 |
| SLANeXt_wireless |
推理模型/训练模型 |
测试环境说明:
- 性能测试环境
- 测试数据集:PaddleX 内部自建高难度中文表格识别数据集。
- 硬件配置:
- GPU:NVIDIA Tesla T4
- CPU:Intel Xeon Gold 6271C @ 2.60GHz
- 软件环境:
- Ubuntu 20.04 / CUDA 11.8 / cuDNN 8.9 / TensorRT 8.6.1.6
- paddlepaddle 3.0.0 / paddlex 3.0.3
- 推理模式说明
| 模式 |
GPU配置 |
CPU配置 |
加速技术组合 |
| 常规模式 |
FP32精度 / 无TRT加速 |
FP32精度 / 8线程 |
PaddleInference |
| 高性能模式 |
选择先验精度类型和加速策略的最优组合 |
FP32精度 / 8线程 |
选择先验最优后端(Paddle/OpenVINO/TRT等) |
## 三、快速集成
> ❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 [PaddleX本地安装教程](../../../installation/installation.md)。完成 wheel 包的安装后,几行代码即可完成表格结构识别模块的推理,可以任意切换该模块下的模型,您也可以将表格结构识别的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载[示例图片](https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/table_recognition.jpg)到本地。
```python
from paddlex import create_model
model = create_model(model_name="SLANet")
output = model.predict(input="table_recognition.jpg", batch_size=1)
for res in output:
res.print(json_format=False)
res.save_to_json("./output/res.json")
```
注:PaddleX 支持多个模型托管平台,官方模型默认优先从 HuggingFace 下载。PaddleX 也支持通过环境变量 `PADDLE_PDX_MODEL_SOURCE` 设置优先使用的托管平台,目前支持 `huggingface`、`aistudio`、`bos`、`modelscope`,如优先使用 `bos`:`PADDLE_PDX_MODEL_SOURCE="bos"`;
👉 运行后,得到的结果为:(点击展开)
```
{'res': {'input_path': 'table_recognition.jpg', 'page_index': None, 'bbox': [array([ 42, 2, 390, 2, 388, 27, 40, 26]), array([11, 35, 89, 35, 87, 63, 11, 63]), array([113, 34, 192, 34, 186, 64, 109, 64]), array([219, 33, 399, 33, 393, 62, 212, 62]), array([413, 33, 544, 33, 544, 64, 407, 64]), array([12, 67, 98, 68, 96, 93, 12, 93]), array([115, 66, 205, 66, 200, 91, 111, 91]), array([234, 65, 390, 65, 385, 92, 227, 92]), array([414, 66, 537, 67, 537, 95, 409, 95]), array([ 7, 97, 106, 97, 104, 128, 7, 128]), array([113, 96, 206, 95, 201, 127, 109, 127]), array([236, 96, 386, 96, 381, 128, 230, 128]), array([413, 96, 534, 95, 533, 127, 408, 127])], 'structure': ['', '', '', '', '| ', ' | ', '
', '', ' | ', ' | ', ' | ', ' | ', '
', '', ' | ', ' | ', ' | ', ' | ', '
', '', ' | ', ' | ', ' | ', ' | ', '
', '
', '', ''], 'structure_score': 0.99948007}}
```
参数含义如下:
- `input_path`:输入的待预测表格图像的路径
- `page_index`:如果输入是PDF文件,则表示当前是PDF的第几页,否则为 `None`
- `boxes`:预测的表格单元格信息,一个列表,由预测的若干表格单元格坐标组成。特别地, SLANeXt 系列模型预测的表格单元格无效
- `structure`:预测的表格结构Html表达式,一个列表,由预测的若干Html关键字按顺序组成
- `structure_score`:预测表格结构的置信度
相关方法、参数等说明如下:
* `create_model`实例化表格结构识别模型(此处以`SLANet`为例),具体说明如下:
| 参数 |
参数说明 |
参数类型 |
可选项 |
默认值 |
model_name |
模型名称 |
str |
所有PaddleX支持的模型名称 |
无 |
model_dir |
模型存储路径 |
str |
无 |
无 |
device |
模型推理设备 |
str |
支持指定GPU具体卡号,如“gpu:0”,其他硬件具体卡号,如“npu:0”,CPU如“cpu”。 |
gpu:0 |
use_hpip |
是否启用高性能推理插件 |
bool |
无 |
False |
hpi_config |
高性能推理配置 |
dict | None |
无 |
None |
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用表格结构识别模型的 `predict()` 方法进行推理预测,`predict()` 方法参数有 `input` 和 `batch_size`,具体说明如下:
| 参数 |
参数说明 |
参数类型 |
可选项 |
默认值 |
input |
待预测数据,支持多种输入类型 |
Python Var/str/list |
- Python变量,如
numpy.ndarray表示的图像数据
- 文件路径,如图像文件的本地路径:
/root/data/img.jpg
- URL链接,如图像文件的网络URL:示例
- 本地目录,该目录下需包含待预测数据文件,如本地路径:
/root/data/
- 列表,列表元素需为上述类型数据,如
[numpy.ndarray, numpy.ndarray],[\"/root/data/img1.jpg\", \"/root/data/img2.jpg\"],[\"/root/data1\", \"/root/data2\"]
|
无 |
batch_size |
批大小 |
int |
任意整数 |
1 |
* 对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为`json`文件的操作:
| 方法 |
方法说明 |
参数 |
参数类型 |
参数说明 |
默认值 |
print() |
打印结果到终端 |
format_json |
bool |
是否对输出内容进行使用 JSON 缩进格式化 |
True |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 |
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
save_to_json() |
将结果保存为json格式的文件 |
save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 |
无 |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 |
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json为True时有效 |
False |
* 此外,也支持通过属性获取结果,具体如下:
| 属性 |
属性说明 |
json |
获取预测的json格式的结果 |
关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考[PaddleX单模型Python脚本使用说明](../../instructions/model_python_API.md)。
## 四、二次开发
如果你追求更高精度的现有模型,可以使用 PaddleX 的二次开发能力,开发更好的表格结构识别模型。在使用 PaddleX 开发表格结构识别模型之前,请务必安装 PaddleX 的 PaddleOCR插件,安装过程可以参考 [PaddleX本地安装教程](../../../installation/installation.md)
### 4.1 数据准备
在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX 为每一个模块都提供了 Demo 数据集,您可以基于官方提供的 Demo 数据完成后续的开发。若您希望用私有数据集进行后续的模型训练,可以参考[PaddleX表格结构识别任务模块数据标注教程](../../../data_annotations/ocr_modules/table_recognition.md)
#### 4.1.1 Demo 数据下载
您可以参考下面的命令将 Demo 数据集下载到指定文件夹:
```bash
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/table_rec_dataset_examples.tar -P ./dataset
tar -xf ./dataset/table_rec_dataset_examples.tar -C ./dataset/
```
#### 4.1.2 数据校验
一行命令即可完成数据校验:
```bash
python main.py -c paddlex/configs/modules/table_structure_recognition/SLANet.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/table_rec_dataset_examples
```
执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息,命令运行成功后会在 log 中打印出`Check dataset passed !`信息。校验结果文件保存在`./output/check_dataset_result.json`,同时相关产出会保存在当前目录的`./output/check_dataset`目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。
👉 校验结果详情(点击展开)
校验结果文件具体内容为:
```json
"done_flag": true,
"check_pass": true,
"attributes": {
"train_samples": 2000,
"train_sample_paths": [
"check_dataset/demo_img/border_right_7384_X9UFEPKVMLALY7DDB11A.jpg",
"check_dataset/demo_img/border_top_13708_VE2DGBD4DCQU2ITLBTEA.jpg",
"check_dataset/demo_img/border_top_6490_14Z6ZN6G52GG4XA0K4XU.jpg",
"check_dataset/demo_img/border_top_14236_DG96EX0EDKIIDK8P6ENG.jpg",
"check_dataset/demo_img/border_19648_SV8B7X34RTYRAT2T5CPI.jpg",
],
"val_samples": 100,
"val_sample_paths": [
"check_dataset/demo_img/border_18653_J9SSKHLFTRJD4J8W17OW.jpg",
"check_dataset/demo_img/border_bottom_8396_VJ3QJ3I0DP63P4JR77FE.jpg",
"check_dataset/demo_img/border_9017_K2V7QBWSU2BA4R3AJSO7.jpg",
"check_dataset/demo_img/border_top_19494_SDFMWP92NOB2OT7109FI.jpg",
"check_dataset/demo_img/no_border_288_6LK683JUCMOQ38V5BV29.jpg"
]
},
"analysis": {},
"dataset_path": "table_rec_dataset_examples",
"show_type": "image",
"dataset_type": "PubTabTableRecDataset"
```
上述校验结果中,check_pass 为 True 表示数据集格式符合要求,其他部分指标的说明如下:
attributes.train_samples:该数据集训练集样本数量为 2000;
attributes.val_samples:该数据集验证集样本数量为 100;
attributes.train_sample_paths:该数据集训练集样本可视化图片相对路径列表;
attributes.val_sample_paths:该数据集验证集样本可视化图片相对路径列表;
#### 4.1.3 数据集格式转换/数据集划分(可选)
在您完成数据校验之后,可以通过修改配置文件或是追加超参数的方式对数据集的格式进行转换,也可以对数据集的训练/验证比例进行重新划分。
👉 格式转换/数据集划分详情(点击展开)
(1)数据集格式转换
表格结构识别不支持数据格式转换。
(2)数据集划分
数据集划分的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:
CheckDataset:
split:
enable: 是否进行重新划分数据集,为 True 时进行数据集格式转换,默认为 False;
train_percent: 如果重新划分数据集,则需要设置训练集的百分比,类型为 0-100 之间的任意整数,需要保证和 val_percent 值加和为 100;
例如,您想重新划分数据集为 训练集占比 90%、验证集占比 10%,则需将配置文件修改为:
......
CheckDataset:
......
split:
enable: True
train_percent: 90
val_percent: 10
......
随后执行命令:
python main.py -c paddlex/configs/modules/table_structure_recognition/SLANet.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/table_rec_dataset_examples
数据划分执行之后,原有标注文件会被在原路径下重命名为 xxx.bak。
以上参数同样支持通过追加命令行参数的方式进行设置:
python main.py -c paddlex/configs/modules/table_structure_recognition/SLANet.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/table_rec_dataset_examples \
-o CheckDataset.split.enable=True \
-o CheckDataset.split.train_percent=90 \
-o CheckDataset.split.val_percent=10
### 4.2 模型训练
一条命令即可完成模型的训练,以此处表格结构识别模型 SLANet 的训练为例:
```bash
python main.py -c paddlex/configs/modules/table_structure_recognition/SLANet.yaml \
-o Global.mode=train \
-o Global.dataset_dir=./dataset/table_rec_dataset_examples
```
需要如下几步:
* 指定模型的`.yaml` 配置文件路径(此处为`SLANet.yaml`,训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以查阅[PaddleX模型列表(CPU/GPU)](../../../support_list/models_list.md))
* 指定模式为模型训练:`-o Global.mode=train`
* 指定训练数据集路径:`-o Global.dataset_dir`
* 其他相关参数均可通过修改`.yaml`配置文件中的`Global`和`Train`下的字段来进行设置,也可以通过在命令行中追加参数来进行调整。如指定前 2 卡 gpu 训练:`-o Global.device=gpu:0,1`;设置训练轮次数为 10:`-o Train.epochs_iters=10`。更多可修改的参数及其详细解释,可以查阅模型对应任务模块的配置文件说明[PaddleX通用模型配置文件参数说明](../../instructions/config_parameters_common.md)。
* 新特性:Paddle 3.0 版本支持了 CINN 神经网络编译器,在使用 GPU 设备训练时,不同模型有不同程度的训练加速效果。在 PaddleX 中训练模型时,可通过指定参数 `-o Train.dy2st=True` 开启。
👉 更多说明(点击展开)
### 4.3 模型评估
在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,一条命令即可完成模型的评估:
```bash
python main.py -c paddlex/configs/modules/table_structure_recognition/SLANet.yaml \
-o Global.mode=evaluate \
-o Global.dataset_dir=./dataset/table_rec_dataset_examples
```
与模型训练类似,需要如下几步:
* 指定模型的`.yaml` 配置文件路径(此处为`SLANet.yaml`)
* 指定模式为模型评估:`-o Global.mode=evaluate`
* 指定验证数据集路径:`-o Global.dataset_dir`
其他相关参数均可通过修改`.yaml`配置文件中的`Global`和`Evaluate`下的字段来进行设置,详细请参考[PaddleX通用模型配置文件参数说明](../../instructions/config_parameters_common.md)。
👉 更多说明(点击展开)
在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=./output/best_accuracy/best_accuracy.pdparams。
在完成模型评估后,会产出evaluate_result.json,其记录了评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包括 acc ;
### 4.4 模型推理和模型集成
在完成模型的训练和评估后,即可使用训练好的模型权重进行推理预测或者进行Python集成。
#### 4.4.1 模型推理
* 通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载[示例图片](https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/table_recognition.jpg)到本地。
```bash
python main.py -c paddlex/configs/modules/table_structure_recognition/SLANet.yaml \
-o Global.mode=predict \
-o Predict.model_dir="./output/best_accuracy/inference" \
-o Predict.input="table_recognition.jpg"
```
与模型训练和评估类似,需要如下几步:
* 指定模型的`.yaml` 配置文件路径(此处为`SLANet.yaml`)
* 指定模式为模型推理预测:`-o Global.mode=predict`
* 指定模型权重路径:`-o Predict.model_dir="./output/best_accuracy/inference"`
* 指定输入数据路径:`-o Predict.input="..."`
其他相关参数均可通过修改`.yaml`配置文件中的`Global`和`Predict`下的字段来进行设置,详细请参考[PaddleX通用模型配置文件参数说明](../../instructions/config_parameters_common.md)。
* 也可以用PaddleX 的 whl 包进行推理,方便地将模型集成到您自己的项目中。
#### 4.4.2 模型集成
模型可以直接集成到 PaddleX 产线中,也可以直接集成到您自己的项目中。
1.产线集成
表格结构识别模块可以集成的PaddleX产线有[通用表格识别产线](../../../pipeline_usage/tutorials/ocr_pipelines/table_recognition.md)、[文档场景信息抽取v3产线(PP-ChatOCRv3-doc)](../../../pipeline_usage/tutorials/information_extraction_pipelines/document_scene_information_extraction_v3.md),只需要替换模型路径即可完成相关产线的表格结构识别模块的模型更新,具体对应关系详见产线文档。在产线集成中,你可以使用高性能部署和服务化部署来部署你得到的模型。
2.模块集成
您产出的权重可以直接集成到表格结构识别模块中,可以参考[快速集成](#三快速集成)的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。
您也可以利用 PaddleX 高性能推理插件来优化您模型的推理过程,进一步提升效率,详细的流程请参考[PaddleX高性能推理指南](../../../pipeline_deploy/high_performance_inference.md)。