移动端部署¶
step 1: 安装PaddleLite
pip install paddlelite
step 2: 将PaddleX模型导出为inference模型
参考导出inference模型将模型导出为inference格式模型。
step 3: 将inference模型转换成PaddleLite模型
python /path/to/PaddleX/deploy/lite/export_lite.py --model_path /path/to/inference_model --save_dir /path/to/onnx_model
--model_path
用于指定inference模型的路径,--save_dir
用于指定Lite模型的保存路径。
step 4: 预测
Lite模型预测正在集成中,即将开源…