1*1的卷积作用 实现跨通道的交互和信息整合,实现卷积核通道数的降维和升维,可以实现多个feature map的线性组合,而且可实现与全连接层的等价效果。 Bottleneck 怎样才能减少卷积层参数量? 如果仅仅引入多个尺寸的卷积核,会带来大量的额外的参数,受到Network In Network中1×1卷积核的启发,为了解决这个问题,他们往Incepti...
为什么要分别使用1*1,3*3,1*1的卷积核进行降维和升维 技术标签:人工智能计算机视觉 使用三个不同大小的卷积核是为了减少参数的数量。 1.首先是卷积核的数量问题。 因为一张图片可能有很多特征,所以可能需要学习多个卷积核用来提取图像特征。 图中不同颜色代表不同的特征,需要学习对应数量的卷积核进行特征提取。
使用1 * 1卷积核,实现降维和升维的操作其实就是channel间信息的线性组合变化,3 * 3,64channels的卷积核前面添加一个1 * 1,28channels的卷积核,就变成了3 * 3,28channels的卷积核,原来的64个channels就可以理解为跨通道线性组合变成了28channels,这就是通道间的信息交互。因为1 * 1卷积核,可以在保持feature m...
2、升维(用最少的参数拓宽网络channal) 例子:上一个例子中,不仅在输入处有一个1*1卷积核,在输出处也有一个卷积核,3*3,64的卷积核的channel是64,只需添加一个1*1,256的卷积核,只用64*256个参数就能把网络channel从64拓宽四倍到256。 3、跨通道信息交互(channal 的变换) 例子:使用1*1卷积核,实现降维和升...
在下面的两幅动图中,左图表示使用3*3卷积核进行卷积运算的经过,可以看到输出feature map的尺寸发生了变化。右图表示使用1*1卷积核进行卷积的经过,输出feature map的尺寸与输入图像保持一致。 由此看到,使用1*1卷积核,可以实现多个feature map的线性组合,并实现通道数的升维与降维。回到开头提出的问题,本文将从以下...
同样也利用了1x1卷积,并且是在3x3卷积层的前后都使用了,不仅进行了降维,还进行了升维,使得卷积层的输入和输出的通道数都减小,参数数量进一步减小, 加入1x1卷积后可以降低输入的通道数,卷积核参数、运算复杂度也就降下来了 2.跨通道的信息融合: 上图是输入4个通道的原图,用两个卷积核w1和w2对图像进行卷积; ...
1、降维/升维。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做1x1的卷积,那么结果的大小为50050020; 2、加入非线性。卷积层之后经过激励层,1*1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的表达能力; ...
那么1×1卷积核有什么作用呢,如果当前层和下一层都只有一个通道那么1×1卷积核确实没什么作用,但是如果它们分别为m层和n层的话,1×1卷积核可以起到一个跨通道聚合的作用,所以进一步可以起到降维(或者升维)的作用,起到减少参数的目的。 比如当前层为x×x×mx×x×m即图像大小为x×xx×x,特征层数为mm,然后...
1*1的卷积核在NIN、Googlenet中被广泛使用,但其到底有什么作用也是一直困扰的问题,这里总结和归纳下在网上查到的自认为很合理的一些答案,包括1)跨通道的特征整合2)特征通道的升维和降维3)减少卷积核参数(简化模型) 1 - 引入 在我学习吴恩达老师Deeplearning.ai深度学习课程的时候,老师在第四讲卷积神经网络第二周...
总结一下,1x1的卷积核可以进行降维或者升维,也就是通过控制卷积核(通道数)实现,这个可以帮助减少模型参数,也可以对不同特征进行尺寸的归一化;同时也可以用于不同channel上特征的融合。一个trick就是在降维的时候考虑结合传统的降维方式,如PCA的特征向量实现,这样效果也可以得到保证。