---
comments: true
---
# PaddleX 服务化部署指南
服务化部署是实际生产环境中常见的一种部署形式。通过将推理功能封装为服务,客户端可以通过网络请求来访问这些服务,以获取推理结果。PaddleX 支持用户以低成本实现产线的服务化部署。本文档将首先介绍使用 PaddleX 进行服务化部署的基本流程,然后介绍将服务用于生产环境时的注意事项以及可能需要执行的操作。
注意
- 服务化部署提供模型产线的服务,而不具体到某个产线模块。
服务化部署示例图:
## 1、基本流程
### 1.1 安装服务化部署插件
执行如下指令,安装服务化部署插件:
```
paddlex --install serving
```
### 1.2 启动服务
通过 PaddleX CLI 启动服务,指令格式为:
```shell
paddlex --serve --pipeline {产线名称或产线配置文件路径} [{其他命令行选项}]
```
以通用图像分类产线为例:
```shell
paddlex --serve --pipeline image_classifcation
```
服务启动成功后,可以看到类似以下展示的信息:
```
INFO: Started server process [63108]
INFO: Waiting for application startup.
INFO: Application startup complete.
INFO: Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)
```
--pipeline可指定为官方产线名称或本地产线配置文件路径。PaddleX 以此构建产线并部署为服务。如需调整配置(如模型路径、batch_size、部署设备等),请参考[通用图像分类产线使用教程](../pipeline_usage/tutorials/cv_pipelines/image_classification.md)中的 “模型应用 部分。
与服务化部署相关的命令行选项如下:
| 名称 | 说明 |
|---|---|
--pipeline |
产线名称或产线配置文件路径。 |
--device |
产线部署设备。默认为 cpu(如 GPU 不可用)或 gpu(如 GPU 可用)。 |
--host |
服务器绑定的主机名或 IP 地址。默认为0.0.0.0。 |
--port |
服务器监听的端口号。默认为8080。 |
--use_hpip |
如果指定,则启用高性能推理插件。 |
--serial_number |
高性能推理插件使用的序列号。只在启用高性能推理插件时生效。 请注意,并非所有产线、模型都支持使用高性能推理插件,详细的支持情况请参考PaddleX 高性能推理指南。 |
--update_license |
如果指定,则进行联网激活。只在启用高性能推理插件时生效。 |