例子:使用1*1卷积核,实现降维和升维的操作其实就是channel间信息的线性组合变化,3*3,64channels的卷积核后面添加一个1*1,28channels的卷积核,就变成了3*3,28channels的卷积核,原来的64个channels就可以理解为跨通道线性组合变成了28channels,这就是通道间的信息交互。 注意:只是在channel维度上做线性组合,W和H上...
当1*1卷积出现时,在大多数情况下它作用是升/降特征的维度,这里的维度指的是通道数(厚度),而不改变图片的宽和高。 举个例子,比如某次卷积之后的结果是W*H*6的特征,现在需要用1*1的卷积核将其降维成W*H*5,即6个通道变成5个通道: 如下图就是一个W*H*6的特征,而1*1的卷积核在图上标出,卷积核自身...
1.实现跨通道的交互和信息整合 1×1的卷积层(可能)引起人们的重视是在NIN的结构中,论文中林敏师兄的想法是利用MLP代替传统的线性卷积核,从而提高网络的表达能力。文中同时利用了跨通道pooling的角度解释,认为文中提出的MLP其实等价于在传统卷积核后面接cccp层,从而实现多个feature map的线性组合,实现跨通道的信息整合。
构成的输出特征图将会包含经过不同大小的卷积核提取出来的特征,从而达到捕捉不同尺度信息的效果。
增加非线性1∗1卷积核,可以在保持特征图尺度不变的(即不改变)的前提下大幅增加非线性特性(利用后...
1×1的卷积大概有两个方面的作用:1. 实现跨通道的交互和信息整合 2. 进行卷积核通道数的降维和升维 详情请参照:http://blog.csdn.net/zhikangfu/article/details/52710266
1*1卷积的主要作用有以下几点:1、降维( dimension reductionality )。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做1*1的卷积,那么结果的大小为500*500*20。2、加入非线性。卷积层之后经过激励层,1*1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),...
右侧面板中的1x1卷积,其作用更为显著。这些卷积核就像神经网络的调色板,允许网络在数据的深度维度上进行精细调控。在输入数据是长方体的情况下,1x1卷积并非简单地忽略像素间的关联,而是在线性组合每个像素的通道信息,保持图像平面结构的同时,实现维度的增减,从而实现有效的特征重塑。例如,两个filter的...
卷积就是限定范围的全连接,比如3x3的卷积就是取9个像素的所有通道进行全连接,输出的神经元数量就等于...