(4)每个6x6的矩阵都叠加起来,得到一个6x6的矩阵 (5)接下来用Relu函数作用于这个6x6的矩阵 (6)得到6x6的输出 同理,如果我用N个1x1x32的卷积核与其做卷积运算,得到的就是N个6x6的矩阵。 这种做法,通常称为1x1卷积或Network in Network。它的主要作用,就是降低信道数量。如下图: 28x28x192的数据,被32个1x...
1,在不增加感受野的情况下,让网络加深,从而引入更多的非线性。这句话的真正意思是:增加一层1x1xCh...
不改变特征图尺寸的前提下去改变通道数(升维降维)增强了网络局部模块的抽象表达能力(即构造更复杂的卷积...
相当于通道层面的全连接网络,可以融合不同通道特征,而对特征的空间相关性不加处理
卷积基本原理(1):一维卷积_哔哩哔哩_bilibili 参考这个
Inception V3 提出了在比较靠后的层可以用1 x n与n x 1构成的小网络代替nxn的卷积层,大幅降低参数...
我就记得论文里貌似有一个解释是能降低参数量和计算量
非对称卷积在深层中使用较好,但在浅层使用不太好,因为很多信息还在空间中,需要用较“全面的”对称...
因此使用1✖1✖32卷积可以输出28✖28✖32。这就是压缩通道数的方法,然而对于池化层我们只是压缩...