//通用接口调用伪代码#include"rknn_api.h"//加载模型intmodel_data_size=0;unsignedchar*model_data=load_model(model_name,&model_data_size);ret=rknn_init(&ctx,model_data,model_data_size,0,NULL);if(ret<0){printf("rknn_init error ret=%d\n",ret);return-1;}//查询RKNN的版本rknn_sdk_versi...
rknn-api-V0.9.9 Baidu Cloud:https://eyun.baidu.com/s/3dzAtcy OneDrive:rknn-onedriveChangelog: 1. add support of multi-input. 2. fix inference error when input channel > 3. 3. modify the name of documents.Note1.Maintain the version of rknn-toolkit/rknn-api/npuservice correspondence....
示例代码如下: 9 http://t.rock-chips.com rknn_perf_run perf_run; ret = rknn_query(ctx, RKNN_QUERY_PERF_RUN, &perf_run, sizeof(rknn_perf_run)); printf("%ld", perf_run.run_duration); 3.1.3.6 查询 SDK 版本 传入 RKNN_QUERY_SDK_VERSION 命令可以查询 RKNN API 以及 Driver 的版本....
这是一份原理性的说明,在针对RKNN模型进行int8量化时,在调用pytorch进行建模时,就需要在建模过程中(参数反向传递的过程中,对模型参数进行处理),pytorch也有自己的量化模型,上面这份文档里有很清晰的描述。 还有一份API级别的参考手册,也在github RKNN2.0.0的doc目录,可以在具体编码时查阅。特护注意,一旦建模时出现一...
模型推理时API调用流程如下: RKNN-Toolkit 通过 PC 的 USB 连接到开发板硬件,将构建或导入的 RKNN 模型传到 RK1808 上运行,并从 RK1808 上获取推理结果、性能信息。使用 RKNN 模型时请先将设备的 NPU 驱动更新至最新的 release 版本。 请执行以下步骤: ...
# 进入 Python 交互模式python# 导入 RKNN 类from rknn.api import RKNN 3.3 安装编译工具 3.3.1 安装 CMake 在计算机的终端中,执行以下命令:# 更新包列表sudo apt update# 安装 cmakesudo apt install cmake 3.3.2 安装编译器 为了方便描述,后续文档使用板端来表示开发板端。确认板端系统类型是安卓...
Rockchip RKNN API 用户指南说明书 http://t.rock-chips.com Rockchip User Guide RKNN_API V1.3.0
RKNN支持Tensorflow、Pytorch、Caffe、Tensorflow Lite、ONNX、DarkNet,这些模型都需要转化为rknn模型才能部署在RK3588上,因此,这部分相关的API在模型转化的时候用到,转化的模型文件名为“xxx.rknn”,后缀为".rknn"。转化之后的rknn模型可以直接使用API进行加载、推理。转化只需要一次即可。我这里只用到了Tensorflow,介绍...
二、RKNN实战准备 在开始RKNN实战之前,你需要做好以下准备工作: 安装RKNN开发工具包:访问Rockchip官方网站,下载并安装最新版本的RKNN开发工具包。 准备神经网络模型:选择你需要部署的神经网络模型,并确保其格式与RKNN兼容。通常,你可以将模型转换为RKNN支持的格式,如TensorFlow Lite、ONNX等。 熟悉RKNN API:阅读RKNN官方...
rknn_query 函数能够查询获取到模型输入输出、运行时间以及 SDK 版本等信息。 API rknn_query 功能 查询模型与 SDK 的相关信息。 参数 rknn_context context:rknn_context 对象。 rknn_query_cmd cmd:查询命令。 void* info:存放返回结果的结构体变量。 uint32_t size:info 对应的结构体变量的大小。 返回值 int...