全连接(FC)、卷积(CONV)和深度卷积(DWCONV)添加了MVE指令的int4类型支持; 重新实现 LSTM 以与 TFLM 参考内核保持一致; LSTM 对 int16 输入的支持 DSP/MVEI 支持转置卷积 支持分组卷积 支持FC 的非零滤波器偏移 对MVEI 的 Int16 输入卷积支持 对int16x8 卷积的 Int32 偏置支持 更能多内容可以查看本文末尾...
全连接(FC)、卷积(CONV)和深度卷积(DWCONV)添加了MVE指令的int4类型支持; 重新实现 LSTM 以与 TFLM 参考内核保持一致; LSTM 对 int16 输入的支持 DSP/MVEI 支持转置卷积 支持分组卷积 支持FC 的非零滤波器偏移 对MVEI 的 Int16 输入卷积支持 对int16x8 卷积的 Int32 偏置支持 更能多内容可以查看本文末尾...
全连接(FC)、卷积(CONV)和深度卷积(DWCONV)添加了MVE指令的int4类型支持; 重新实现 LSTM 以与 TFLM 参考内核保持一致; LSTM 对 int16 输入的支持 DSP/MVEI 支持转置卷积 支持分组卷积 支持FC 的非零滤波器偏移 对MVEI 的 Int16 输入卷积支持 对int16x8 卷积的 Int32 偏置支持 更能多内容可以查看本文末尾...
全连接(FC)、卷积(CONV)和深度卷积(DWCONV)添加了MVE指令的int4类型支持; 重新实现 LSTM 以与TFLM 参考内核保持一致; LSTM 对 int16 输入的支持 DSP/MVEI 支持转置卷积 支持分组卷积 支持FC 的非零滤波器偏移 对MVEI 的 Int16 输入卷积支持 对int16x8 卷积的 Int32 偏置支持 更能多内容可以查看本文末尾...
内核API也保持简单,因此可以轻松地重定向到任何机器学习框架。NNSupport函数包括不同的实用函数,如NNFunctions中使用的数据转换和激活功能表。 这些实用函数也可以被应用代码用来构造更复杂的NN模块,例如, 长期短时记忆(LSTM)或门控循环单元(GRU)。 对于某些内核(例如全连接和卷积),会使用到不同版本的内核函数。 我们...
内核API也保持简单,因此可以轻松地重定向到任何机器学习框架。NNSupport函数包括不同的实用函数,如NNFunctions中使用的数据转换和激活功能表。这些实用函数也可以被应用代码用来构造更复杂的NN模块,例如,长期短时记忆(LSTM)或门控循环单元(GRU)。 对于某些内核(例如全连接和卷积),会使用到不同版本的内核函数。Arm提供...
LSTMYesYesNoYesYesNoYesYesNo SVDFYesNoNoYesNoNoYesNoNo PadYesNoN/ANoNoN/AYesNoN/A TransposeYesNoN/ANoNoN/AYesNoN/A int4 weights + int8 activations Contribution Guideline First, a thank you for the contribution. Here are some guidelines and good to know information to get started. ...
LSTMYesYesNoYesYesNoYesYesNo SVDFYesNoNoYesNoNoYesNoNo PadYesNoN/ANoNoN/AYesNoN/A TransposeYesNoN/ANoNoN/AYesNoN/A int4 weights + int8 activations Contribution Guideline First, a thank you for the contribution. Here are some guidelines and good to know information to get started. ...
这些实用函数也可以被应用代码用来构造更复杂的NN模块,例如,长期短时记忆(LSTM)或门控循环单元(GRU)。 对于某些内核(例如全连接和卷积),会使用到不同版本的内核函数。我们提供了一个基本的版本,可以为任何图层参数“按原样”通用。我们还部署了其他版本,包括进一步的优化技术,但会对输入进行转换或对层参数有一些...
With its utility functions, it is also possible to construct more complex NN modules, such as LSTM and GRU. For a model trained with a popular framework such as TensorFlow, Caffe. The weights and biases will first be quantized to 8 bit or 16-bit integers then deployed to the ...