中心像素:奇数大小的卷积核具有一个明确的中心像素,可以使得输入图像上的像素点在卷积过程中具有空间对称...
卷积核一般都把size设为奇数,主要有以下两个原因: 保护位置信息:保证了锚点刚好在中间,方便以模块中心为标准进行滑动卷积,避免了位置信息发生偏移。 padding时对称:保证了padding时,图像的两边依然相对称。 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
因此为了保证每次卷积后都能得到唯一的中心像素,卷积核的大小必须是奇数。这个
首先,奇数卷积核有助于简化padding过程。当卷积核大小为k*k时,为了保持卷积后的图像尺寸不变,通常需要在图像边缘添加padding,计算公式为padding=(k-1)/2。只有当k为奇数时,padding才能精确地取整数值,方便图像的均匀填充操作。其次,奇数尺寸有利于定位锚点。在卷积神经网络中,我们通常以卷积核中心...
cnn 卷积核为什么都是奇数 原因1: 奇数相对于偶数,有中心点,对边沿、对线条更加敏感,可以更有效的提取边沿信息。 偶数也可以使用,但是效率比奇数低。在数以万计或亿计的计算过程中,每个卷积核差一点,累计的效率就会差很多。 或者解释: 《数字图像处理 (第三版)》(阮秋琦翻译)p89...
在CNN中,卷积核的大小是3 * 3 或者5 * 5是最常见的。也就是说我们见到的卷积核几乎都是奇数 * 奇数的。在LeNet5中两个卷积层的卷积核都是5*5。 而在AlexNet中共有5个卷积层,conv1的卷积核大小是11* 11;conv2的卷积核大小是5* 5;conv3的... ...
锚点也就是卷积核滑动时的一个参考点(相对于图像来说,自己理解的,不保证正确,没找到相关资料)。奇数过滤器的锚点正好在中心位置,避免了位置信息发生偏移,如果卷积核是偶数*偶数时,这时候就没有办法确定了锚点了。让谁是锚点,卷积核上下左右移动之后,位置信息都会发生偏移。
一般来说,矩阵卷积会以卷积核模块的一个部分为基准进行滑动,一般cnn中的卷积核是方形的,为了统一标准,会用卷积核模块中心为基准进行滑动,从被卷积矩阵第一个框按一定布长从左到右从上到下进行滑动,最后滑动到被积矩阵最后一块。所以卷积核一般为奇数,主要是方便以模块中心为标准进行滑动卷积。
在CNN中,进行卷积操作时一般会以卷积核模块的一个位置为基准进行滑动,这个基准通常就是卷积核模块的中心。若卷积核为奇数,卷积锚点很好找,自然就是卷积模块中心,但如果卷积核是偶数,这时候就没有办法确定了,让谁是锚点似乎都不怎么好。 上述例子都只包含一个输入通道。实际上,大多数输入图像都有 RGB 3个通道。
为什么卷积核通常都是奇数(1x1、3x3...) 天然的绝对中心点,因此在做卷积的时候能更好地获取到中心这样的概念信息。 保护位置信息:保证了锚点刚好在中间,方便以模块中心为标准进行滑动卷积,避免了位置信息发生偏移 。在CNN中,进行卷积操作时一般会以卷积核模块的一个位置为基准进行滑动,这个基准通常就是卷积核模块的...