原因: 1.对于卷积运算是对感知野内的信息提取到一个锚点,当卷积核是奇数的时候这个锚点是非常容易得到的,但是卷积核是偶数的时候就不太容易找的到锚点。 2. 当我们要输入和输出的高宽一样时,由输出的形状是[(H-FH +Ph+stride)/stride]x[(W-FW+Pw +stride)/stride],令步幅为1且只有步幅为1的情况下,才...
中心像素:奇数大小的卷积核具有一个明确的中心像素,可以使得输入图像上的像素点在卷积过程中具有空间对称...
卷积核一般都把size设为奇数,主要有以下两个原因: 保护位置信息:保证了锚点刚好在中间,方便以模块中心为标准进行滑动卷积,避免了位置信息发生偏移。 padding时对称:保证了padding时,图像的两边依然相对称。 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
因此为了保证每次卷积后都能得到唯一的中心像素,卷积核的大小必须是奇数。这个
奇数尺寸有利于定位锚点。在卷积神经网络中,我们通常以卷积核中心点为参考点进行窗口滑动。如果k是偶数,中心点的存在就显得尤为重要,因为它能确保每次滑动都在图像的精确位置上,避免了偏移带来的影响。理解了这两个关键因素,你就掌握了为什么卷积核通常选择奇数尺寸的奥秘。希望这个解释对你有所帮助!
原因1: 奇数相对于偶数,有中心点,对边沿、对线条更加敏感,可以更有效的提取边沿信息。 偶数也可以使用,但是效率比奇数低。在数以万计或亿计的计算过程中,每个卷积核差一点,累计的效率就会差很多。 或者解释: 《数字图像处理 (第三版)》(阮秋琦翻译)p89 也可以使
熟悉CNN应该都知道常见的卷积核都是3 * 3或者5 * 5等,也就是奇数*奇数,似乎都没看过偶数的,这是为什么呢? 在CNN中,卷积核的大小是3 * 3 或者5 * 5是最常见的。也就是说我们见到的卷积核几乎都是奇数 * 奇数的。在LeNet5中两个卷积层的卷积核都是5*5。 而在AlexNet中共有5个卷积层,conv1的卷积...
一般来说,矩阵卷积会以卷积核模块的一个部分为基准进行滑动,一般cnn中的卷积核是方形的,为了统一标准,会用卷积核模块中心为基准进行滑动,从被卷积矩阵第一个框按一定布长从左到右从上到下进行滑动,最后滑动到被积矩阵最后一块。所以卷积核一般为奇数,主要是方便以模块中心为标准进行滑动卷积。
在达到相同感受野的情况下,卷积核越小,所需要的参数和计算量越小。 具体来说。卷积核大小必须大于1...卷积神经网络中的卷积有什么用? 卷积可以提取图片中的特征。 参考文献 https://blog.csdn.net/charleswangzi/article/details/82733016 结合卷积神经网络by吴恩达 来看, 上图所示的卷积核在不同的论文中被称作...
为什么卷积核一般是奇数的正方形 A.1 然而,卷积的意图是根据滤波器或内核对源数据矩阵(整个图像)进行编码。更具体地说,我们正在尝试对锚/源像素附近的像素进行编码。 通常,我们考虑源图像的每个像素作为锚/...