生成inference model后,就可以进行PP-ShiTu部署使用了 In [ ] !python tools/export_model.py -c ppcls/configs/GeneralRecognitionV2/GeneralRecognitionV2_PPLCNetV2_base.yaml -o Global.pretrained_model=output/RecModel/best_model 8 模型部署 在本此展示中,以python inference 为例,展示整个PipeLine的运行结...