## PaddleInference模型部署 - [Linux编译(支持加密)指南](./paddle/linux.md) - [Windows编译(支持加密)指南](./paddle/windows.md) ## ONNX模型部署 Paddle的模型除了直接通过PaddleInference部署外,还可以通过[Paddle2ONNX](https://github.com/PaddlePaddle/Paddle2ONNX.git)转为ONNX后使用第三方推理引擎进行部署,在本目录下,我们提供了基于OpenVINO、Triton和TensorRT三个引擎的部署支持。 - [OpenVINO部署](./openvino/README.md) - [Triton部署](./triton/docker.md) - [TensorRT部署](./tensorrt/trt.md)