https://github.com/PaddlePaddle/PaddleX.git

gaotingquan 8617d3d914 style with new pre-commit před 1 rokem
.github 8617d3d914 style with new pre-commit před 1 rokem
docs 8617d3d914 style with new pre-commit před 1 rokem
paddlex 8617d3d914 style with new pre-commit před 1 rokem
.clang_format.hook dca46ea548 update pre-commit před 1 rokem
.gitignore 3d94880698 paddlex3.0 first commit před 1 rokem
.pre-commit-config.yaml dca46ea548 update pre-commit před 1 rokem
.style.yapf 8617d3d914 style with new pre-commit před 1 rokem
LICENSE 8617d3d914 style with new pre-commit před 1 rokem
README.md 8617d3d914 style with new pre-commit před 1 rokem
install_pdx.py 8617d3d914 style with new pre-commit před 1 rokem
main.py 8617d3d914 style with new pre-commit před 1 rokem
requirements.txt 8617d3d914 style with new pre-commit před 1 rokem
setup.py 8617d3d914 style with new pre-commit před 1 rokem

README.md

PaddleX

简介

PaddleX 3.0 是飞桨精选模型的低代码开发工具,支持国内外多款主流硬件的模型训练和推理,覆盖工业、能源、金融、交通、教育等全行业,助力开发者产业实践落地。

通用图像分类 通用目标检测 通用语义分割 通用实例分割
通用OCR 通用表格识别 通用场景信息抽取 文档场景信息抽取
时序预测 时序异常检测 时序分类 多模型融合时序预测

📣 近期更新

  • 🔥🔥直播和实战打卡营预告: 《PaddleX 3.0 Beta 重磅开源:多场景低代码AI开发,本地多硬件全兼容》课程上线,分享 PaddleX 3.0 Beta 版本新特色及全新开发范式,详解基于真实产业用户场景与业务数据,如何利用本地GPU算力,低成本零门槛解决产业实际问题。直播时间:7月16日(周二)19:00。报名链接
  • 🔥 2024.6.27,PaddleX 3.0 Beta 本地端正式发布,支持以低代码的方式在本地端使用多种主流硬件进行产线和模型开发。
  • 🔥 2024.3.25,PaddleX 3.0 云端发布,支持在AI Studio 星河社区以零代码的方式【创建产线】使用。

🌟 特性

PaddleX 3.0 集成了飞桨生态的优势能力,覆盖 7 大场景任务,构建了 16 条模型产线,提供低代码开发模式,助力开发者在多种主流硬件上实现模型全流程开发。

  • 基础模型产线(模型丰富,场景全面): 精选 68 个优质飞桨模型,涵盖图像分类、目标检测、图像分割、OCR、文本图像版面分析、文本图像信息抽取、时序分析任务场景。
  • 特色模型产线(显著提升效率): 提供大小模型结合、大模型半监督学习和多模型融合的高效解决方案。
  • 低门槛开发模式(便捷开发与部署): 提供零代码和低代码两种开发方式。
    • 零代码开发: 用户通过图形界面(GUI)交互式提交后台训练任务,打通在线和离线部署,并支持以 API 形式调用在线服务。
    • 低代码开发: 通过统一的 API 接口实现 16 条模型产线的全流程开发,同时支持用户自定义模型流程串联。
  • 多硬件本地支持(兼容性强): 支持英伟达 GPU、昆仑芯、昇腾和寒武纪等多种硬件,纯离线使用。

⚡ 安装与快速开始

🛠️ PaddleX 3.0 覆盖的模型和模型产线

PaddleX 3.0 覆盖了 16 条产业级模型产线,其中 9 条基础产线可以直接使用本仓库离线使用,7 条特色产线可在飞桨 AI Studio 星河社区上免费使用。

<th>产线类型</th>
<th>模型产线</th>
<th>产线模块</th>
<th>具体模型</th>

<td>基础产线</td>
<td>通用图像分类</td>
<td>图像分类</td>
<td>CLIP_vit_base_patch16_224<br/>CLIP_vit_large_patch14_224<details>
<summary><b>more</b></summary><br/>ConvNeXt_tiny<br/>ConvNeXt_small<br/>ConvNeXt_base_224<br/>ConvNeXt_base_384<br/>ConvNeXt_large_224<br/>ConvNeXt_large_384<br/>MobileNetV1_x0_25<br/>MobileNetV1_x0_5<br/>MobileNetV1_x0_75<br/>MobileNetV1_x1_0<br/>MobileNetV2_x0_25<br/>MobileNetV2_x0_5<br/>MobileNetV2_x1_0<br/>MobileNetV2_x1_5<br/>MobileNetV2_x2_0<br/>MobileNetV3_large_x0_35<br/>MobileNetV3_large_x0_5<br/>MobileNetV3_large_x0_75<br/>MobileNetV3_large_x1_0<br/>MobileNetV3_large_x1_25<br/>MobileNetV3_small_x0_35<br/>MobileNetV3_small_x0_5<br/>MobileNetV3_small_x0_75<br/>MobileNetV3_small_x1_0<br/>MobileNetV3_small_x1_25<br/>PP-HGNet_tiny<br/>PP-HGNet_small<br/>PP-HGNet_base<br/>PP-HGNetV2-B0<br/>PP-HGNetV2-B1<br/>PP-HGNetV2-B2<br/>PP-HGNetV2-B3<br/>PP-HGNetV2-B4<br/>PP-HGNetV2-B5<br/>PP-HGNetV2-B6<br/>PP-LCNet_x0_25<br/>PP-LCNet_x0_35<br/>PP-LCNet_x0_5<br/>PP-LCNet_x0_75<br/>PP-LCNet_x1_0<br/>PP-LCNet_x1_5<br/>PP-LCNet_x2_0<br/>PP-LCNet_x2_5<br/>PP-LCNetV2_small<br/>PP-LCNetV2_base<br/>PP-LCNetV2_large<br/>ResNet18<br/>ResNet18_vd<br/>ResNet34<br/>ResNet34_vd<br/>ResNet50<br/>ResNet50_vd<br/>ResNet101<br/>ResNet101_vd<br/>ResNet152<br/>ResNet152_vd<br/>ResNet200_vd<br/>SwinTransformer_tiny_patch4_window7_224<br/>SwinTransformer_small_patch4_window7_224<br/>SwinTransformer_base_patch4_window7_224<br/>SwinTransformer_base_patch4_window12_384<br/>SwinTransformer_large_patch4_window7_224<br/>SwinTransformer_large_patch4_window12_384</details></td>

<td>基础产线</td>
<td>通用目标检测</td>
<td>目标检测</td>
<td>PicoDet-S<br/>PicoDet-L<details>
<summary><b>more</b></summary><br/>PP-YOLOE_plus-S<br/>PP-YOLOE_plus-M<br/>PP-YOLOE_plus-L<br/>PP-YOLOE_plus-X<br/>RT-DETR-L<br/>RT-DETR-H<br/>RT-DETR-X<br/>RT-DETR-R18<br/>RT-DETR-R50<br/>YOLOv3-DarkNet53<br/>YOLOv3-MobileNetV3<br/>YOLOv3-ResNet50_vd_DCN<br/>YOLOX-L<br/>YOLOX-M<br/>YOLOX-N<br/>YOLOX-S<br/>YOLOX-T<br/>YOLOX-X</details></td>

<td>基础产线</td>
<td>通用语义分割</td>
<td>语义分割</td>
<td>OCRNet_HRNet-W48<br/>OCRNet_HRNet-W18<br/>PP-LiteSeg-T<details>
<summary><b>more</b></summary><br/>Deeplabv3-R50<br/>Deeplabv3-R101<br/>Deeplabv3_Plus-R50<br/>Deeplabv3_Plus-R101<br/>SeaFormer_tiny<br/
>SeaFormer_small<br/>SeaFormer_base<br/>SeaFormer_large<br/
>SegFormer-B0<br/>SegFormer-B1<br/>SegFormer-B2<br/
>SegFormer-B3<br/>SegFormer-B4<br/>SegFormer-B5</details></td>

<td>基础产线</td>
<td>通用实例分割</td>
<td>实例分割</td>
<td>Mask-RT-DETR-L<br/>Mask-RT-DETR-H</td>

<td rowspan="3">基础产线</td>
<td rowspan="3">通用OCR</td>
<td>文本检测</td>
<td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>

<td>文本识别</td>
<td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>

<td>公式识别</td>
<td>LaTeX_OCR_rec</td>

<td rowspan="4">基础产线</td>
<td rowspan="4">通用表格识别</td>
<td>版面区域检测</td>
<td>PicoDet layout_1x</td>

<td>表格识别</td>
<td>SLANet</td>

<td>文本检测</td>
<td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>

<td>文本识别</td>
<td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>

<td>基础产线</td>
<td>时序预测</td>
<td>时序预测</td>
<td>DLinear<br/>Nonstationary<br/>TiDE<br/>PatchTST<br/>TimesNet</td>

<td>基础产线</td>
<td>时序异常检测</td>
<td>时序异常检测</td>
<td>DLinear_ad<br/>Nonstationary_ad<br/>AutoEncoder_ad<br/>PatchTST_ad<br/>TimesNet_ad</td>

<td>基础产线</td>
<td>时序分类</td>
<td>时序分类</td>
<td>TimesNet_cls</td>

<td>特色产线</td>
<td>大模型半监督学习-图像分类</td>
<td>大模型半监督学习-图像分类</td>
<td>CLIP_vit_base_patch16_224<br/>MobileNetV3_small_x1_0<br/><details><summary><b>more</b></summary>PP-HGNet_small<br/>PP-HGNetV2-B0<br/>PP-HGNetV2-B4<br/>PP-HGNetV2-B6<br/>PP-LCNet_x1_0<br/>ResNet50<br/>SwinTransformer_base_patch4_window7_224</details></td>

<td>特色产线</td>
<td>大模型半监督学习-目标检测</td>
<td>大模型半监督学习-目标检测</td>
<td>PicoDet-S<br/>PicoDet-L<details>
<summary><b>more</b></summary><br/>PP-YOLOE plus-S<br/>PP-YOLOE_plus-L<br/>RT-DETR-H</details></td>

<td rowspan="2">特色产线</td>
<td rowspan="2">大模型半监督学习-OCR</td>
<td>文本检测</td>
<td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>

<td>大模型半监督学习-文本识别</td>
<td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>

<td rowspan="3">特色产线</td>
<td rowspan="3">通用场景信息抽取v2<br>(PP-ChatOCRv2-common)</td>
<td>文本识别</td>
<td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>

<td>文本检测</td>
<td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>

<td>prompt工程</td>
<td>-</td>

<td rowspan="5">特色产线</td>
<td rowspan="5">文档场景信息抽取v2<br>(PP-ChatOCRv2-doc)</td>
<td>版面分析</td>
<td>PicoDet layout_1x</td>

<td>文本检测</td>
<td>PP-OCRv4_mobile_det<br/>PP-OCRv4_server_det</td>

<td>文本识别</td>
<td>PP-OCRv4_mobile_rec<br/>PP-OCRv4_server_rec</td>

<td>表格识别</td>
<td>SLANet</td>

<td>prompt工程</td>
<td>-</td>

<td>特色产线</td>
<td>多模型融合时序预测v2<br>(PP-TSv2_forecast)</td>
<td>时序预测</td>
<td>多模型融合时序预测</td>

<td>特色产线</td>
<td>多模型融合时序异常检测v2<br>(PP-TSv2_anomaly)</td>
<td>时序异常检测</td>
<td>多模型融合时序异常检测</td>

📖 零代码开发教程

📖 低代码开发教程

一、模型产线开发工具 🔥

PaddleX 3.0 模型产线开发工具支持开发者通过 6 个步骤,完成产业级落地解决方案的开发。PaddleX 3.0 支持的模型产线可以参考 PaddleX 模型产线列表

二、单模型开发工具 🚀

PaddleX 3.0 单模型开发工具支持开发者以低代码的方式快速实现模型的开发和优化,包括数据准备、模型训练/评估、模型推理的使用方法,方便低成本集成到模型产线中。PaddleX3.0 支持的模型可以参考 PaddleX 模型库

🌟 多硬件支持

PaddleX 3.0 支持在多种硬件上进行模型的开发,除了 GPU 外,当前支持的硬件还有昆仑芯昇腾寒武纪。只需添加一个配置设备的参数,即可在对应硬件上使用上述工具。使用方式详情多硬件使用

👀 贡献代码

我们非常欢迎您为 PaddleX 贡献代码或者提供使用建议。如果您可以修复某个 issue 或者增加一个新功能,欢迎给我们提交 Pull Requests。

许可证书

本项目的发布受Apache 2.0 license许可认证。