Inception V3 提出了在比较靠后的层可以用1 x n与n x 1构成的小网络代替nxn的卷积层,大幅降低参数...
1×N 和 N×1 的卷积核主要是为了发现宽的特征和高的特征 1×1的卷积核,因为在实验中发现很多特征并没有激发状态,所以通过1*1的卷积核来降维,相对应的1*1的卷积核对于1个像素是不变的,但是对于一堆像素其实就是一个简单的线性变换。这样可以升维,可以降维。
我就记得论文里貌似有一个解释是能降低参数量和计算量
卷积核你把它想像成一个过滤器,这个过滤器就象一个复杂的参数可以训练的滤镜,图像经过这个滤镜从左到右从上到下一行行扫描后,最后可以变成特征明显的图层s,只要损失函数要求特征图层s怎么样,卷积核就训练成了怎么样。或者你把卷积核想象成一个智能渔网,可以训练成只识别青鱼,它就碰到青鱼就只捞青鱼,别的都放过。
后者:n x n 非对称卷积在深层中使用较好,但在浅层使用不太好,因为很多信息还在空间中,需要用较“...
● AI模块 ---Kendryte K210 双核 RISC-V 处理器 @ 600 MHz,KPU 卷积神经网络加速器,APU音频加速器,8MB通用SRAM,其中5.9MB用于AI SRAM。 ● 无线模块 --- 搭载双核ESP32 Xtensa LX6处理器的ESP32-PICO-D4,支持2.4GHz 802.11.b/g/n WiFi 4, 和 Bluetooth 4.2 LE 连接 ...
减少参数呗。降低模型参数量很重要。
为了减少参数量,论文中有说明。1 x n接n x 1的效果与n x n是一样的,但参数量少了很多。