name: 3. 模型部署 about: 模型部署相关问题,包括高性能推理、服务化部署、端侧部署等 title: '' labels: '' assignees: ''
高性能推理
服务化部署
您是否完全按照服务化部署文档教程跑通了流程?
您在服务化部署中是否有使用高性能推理插件?
您使用了哪一种服务化部署方案?
如果是多语言调用的问题,请给出调用示例子。
端侧部署
您是否完全按照端侧部署文档教程跑通了流程?
您使用的端侧设备是?对应的PaddlePaddle版本和PaddleLite版本分别是什么?
您使用的模型和数据集是?
请提供您出现的报错信息及相关log
请提供您使用的PaddlePaddle、PaddleX版本号、Python版本号
请提供您使用的操作系统信息,如Linux/Windows/MacOS
请问您使用的CUDA/cuDNN的版本号是?