中心像素:奇数大小的卷积核具有一个明确的中心像素,可以使得输入图像上的像素点在卷积过程中具有空间对称...
卷积核一般都把size设为奇数,主要有以下两个原因: 保护位置信息:保证了锚点刚好在中间,方便以模块中心为标准进行滑动卷积,避免了位置信息发生偏移。 padding时对称:保证了padding时,图像的两边依然相对称。 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
首先,奇数卷积核有助于简化padding过程。当卷积核大小为k*k时,为了保持卷积后的图像尺寸不变,通常需要在图像边缘添加padding,计算公式为padding=(k-1)/2。只有当k为奇数时,padding才能精确地取整数值,方便图像的均匀填充操作。其次,奇数尺寸有利于定位锚点。在卷积神经网络中,我们通常以卷积核中心...
因此为了保证每次卷积后都能得到唯一的中心像素,卷积核的大小必须是奇数。这个
在CNN中,卷积核的大小是3 * 3 或者5 * 5是最常见的。也就是说我们见到的卷积核几乎都是奇数 * 奇数的。在LeNet5中两个卷积层的卷积核都是5*5。 而在AlexNet中共有5个卷积层,conv1的卷积核大小是11* 11;conv2的卷积核大小是5* 5;conv3的... ...
cnn 卷积核为什么都是奇数 原因1: 奇数相对于偶数,有中心点,对边沿、对线条更加敏感,可以更有效的提取边沿信息。 偶数也可以使用,但是效率比奇数低。在数以万计或亿计的计算过程中,每个卷积核差一点,累计的效率就会差很多。 或者解释: 《数字图像处理 (第三版)》(阮秋琦翻译)p89...
一般来说,矩阵卷积会以卷积核模块的一个部分为基准进行滑动,一般cnn中的卷积核是方形的,为了统一标准,会用卷积核模块中心为基准进行滑动,从被卷积矩阵第一个框按一定布长从左到右从上到下进行滑动,最后滑动到被积矩阵最后一块。所以卷积核一般为奇数,主要是方便以模块中心为标准进行滑动卷积。
在CNN中,进行卷积操作时一般会以卷积核模块的一个位置为基准进行滑动,这个基准通常就是卷积核模块的中心。若卷积核为奇数,卷积锚点很好找,自然就是卷积模块中心,但如果卷积核是偶数,这时候就没有办法确定了,让谁是锚点似乎都不怎么好。 上述例子都只包含一个输入通道。实际上,大多数输入图像都有 RGB 3个通道。
熟悉CNN应该都知道常见的卷积核都是3 * 3或者5 * 5等,也就是奇数*奇数,似乎都没看过偶数的,这是为什么呢? 在CNN中,卷积核的大小是3 * 3 或者5 * 5是最常见的。也就是说我们见到...的卷积核大小是3* 3;conv4的卷积核大小是3* 3;conv5的卷积核大小是3*3。 看到了吗?都是奇数!这是为什么呢?
【CNN】为什么CNN的卷积核大小一般都是奇数 为什么CNN的卷积核大小一般都是奇数?图(a)、(b)、©的卷积核大小分别为3、4、5,其中(a)和©在做padding生成输入等尺寸特征图时表现出较大的优势,然而(b)无法实现等尺寸特征图,3的时候,padding=1即可;5的时候,padding=2即可;...