FlyingQianMM a8dc155ffb move dygraph in docs %!s(int64=4) %!d(string=hai) anos
..
cmake ecefcd9c2b mv dygraph to home directory %!s(int64=4) %!d(string=hai) anos
demo f2fce32bbf add OpenVINO engine (#998) %!s(int64=4) %!d(string=hai) anos
docs a8dc155ffb move dygraph in docs %!s(int64=4) %!d(string=hai) anos
encryption f850027cb2 fix filename (#1011) %!s(int64=4) %!d(string=hai) anos
model_deploy f850027cb2 fix filename (#1011) %!s(int64=4) %!d(string=hai) anos
scripts f2fce32bbf add OpenVINO engine (#998) %!s(int64=4) %!d(string=hai) anos
tools ecefcd9c2b mv dygraph to home directory %!s(int64=4) %!d(string=hai) anos
CMakeLists.txt f2fce32bbf add OpenVINO engine (#998) %!s(int64=4) %!d(string=hai) anos
CMakeSettings.json f2fce32bbf add OpenVINO engine (#998) %!s(int64=4) %!d(string=hai) anos
README.md ed3159fcc8 Add Openvino docs (#1040) %!s(int64=4) %!d(string=hai) anos

README.md

PaddlePaddle模型C++部署

本目录下代码,目前支持以下飞桨官方套件基于PaddleInference的部署。

模型套件支持

硬件支持

  • CPU(linux/windows)
  • GPU(linux/windows)
  • Jetson(TX2/Nano/Xavier)

文档

PaddleInference编译说明

模型部署说明

模型预测示例

API说明

ONNX模型部署

Paddle的模型除了直接通过PaddleInference部署外,还可以通过Paddle2ONNX转为ONNX后使用第三方推理引擎进行部署,在本目录下,我们提供了基于OpenVINO、Triton和TensorRT三个引擎的部署支持。