quant.md 1.0 KB

模型量化

为了更好地满足端侧部署场景下,低内存带宽、低功耗、低计算资源占用以及低模型存储等需求,PaddleX通过集成PaddleSlim实现模型量化,可提升PaddleLite端侧部署性能。

原理介绍

定点量化使用更少的比特数(如8-bit、3-bit、2-bit等)表示神经网络的权重和激活值,从而加速模型推理速度。PaddleX提供了训练后量化技术,其原理可参见训练后量化原理,该量化使用KL散度确定量化比例因子,将FP32模型转成INT8模型,且不需要重新训练,可以快速得到量化模型。

使用PaddleX量化模型

PaddleX提供了export_quant_model接口,让用户以接口的形式完成模型以post_quantization方式量化并导出。点击查看量化接口使用文档

量化性能对比

模型量化后的性能对比指标请查阅PaddleSlim模型库