RTMPose-DeployExamples是基于RTMPose的C语言部署示例,它使用ONNXRuntime和TensorRT库。这些示例展示了如何使用ONNXRuntime将RTMPose模型转换为ONNX格式,然后使用TensorRT进行推理处理。 在RTMPose-DeployExamples中,首先需要安装ONNXRuntime和TensorRT库。然后,编写一个C文件(例如:rtmpose_deploy.c),在其中实现以下功能:...
通过研究多人姿态估计算法的五个方面:范式、骨干网络、定位算法、训练策略和部署推理,我们的 RTMPose-m 模型在 COCO 上达到75.8%AP的同时,能在 Intel i7-11700 CPU 上用 ONNXRuntime 达到90+FPS,在 NVIDIA GTX 1660 Ti GPU 上用 TensorRT 达到430+FPS。RTMPose-s 以72.2%AP的性能,在手机端 Snapdragon865 ...
使用不同的推理框架(PyTorch、ONNX Runtime、TensorRT、ncnn)和硬件(i7-11700、GTX1660Ti、Snapdragon865)部署RTMPose,以测试效率。 如图1所示,使用各种推理框架(PyTorch、ONNX Runtime、TensorRT、ncnn)和硬件(Intel i7-11700、GTX 1660Ti、Snapdragon 865)评估RTMPose的效率。RTMPose-m在COCO valset上实现了75.8%...
在完成安装之后,你就可以开始模型部署了。通过 MMDeploy 提供的 tools/deploy.py 可以方便地将 Pytorch 模型转换到不同的部署后端。我们本节演示将 RTMDet 和 RTMPose 模型导出为 ONNX 和 TensorRT 格式,如果你希望了解更多内容请前往 MMDeploy 文档。