本目录下代码,目前支持以下飞桨官方套件基于PaddleInference的部署。
Paddle的模型除了直接通过PaddleInference部署外,还可以通过Paddle2ONNX转为ONNX后使用第三方推理引擎进行部署,在本目录下,我们提供了基于Triton和TensorRT两个引擎的部署支持。