为什么CNN中的卷积核一般都是奇数*奇数,有无偶数*偶数的?咱们经常见到的多为 3*3、5*5;怎么从来没有见过 4*4,6*6 之类的卷积核?无论奇数 or 偶数,都是能够做卷积的呀... 回看AlexNet模型的11*11、5*5、3*3,还有VGG开始统一卷积核为3*3,再到之后的模型,都没有用过 偶数*偶数的卷积核,说明它是有...
他提了两点原因。一是padding的原因,如果f是奇数,就可以从图像的两边对称的padding。第二点是奇数的f...
这一串的问题,原因有两个: 1.保证了 锚点 刚好在中间 锚点也就是卷积核滑动时的一个参考点(相对于图像来说,自己理解的,不保证正确,没找到相关资料)。奇数过滤器的锚点正好在中心位置,避免了位置信息发生偏移,如果卷积核是偶数*偶数时,这时候就没有办法确定了锚点了。让谁是锚点,卷积核上下左右移动之后,位置信息...
因为奇数可以写成2*n+1的形式啊~ 偶数就不行 在像素这个领域里,偶数框其实是没有一个“绝对的物理中心”的 但是你如果只是想移动,那默认左上角为中心点也是可以的~ 现在大家都那么约定俗成罢了 编辑于 2017-02-10 21:32 AI 总结 为什么CNN中的卷积核一般都是奇数*奇数,没有偶数*偶数的? 已引用 8 ...
奇数相对于偶数,有中心点,对边沿、对线条更加敏感,可以更有效的提取边沿信息。偶数也可以使用,但是...
我做过对比实验,用了偶数卷积核,其他参数设置都没变,效果出奇差。padding方式就是楼上说的same。原因...
个人觉得,卷积核选用奇数还是偶数与使用的padding方式有关。当进行valid convolution或使用full convolution...
补充一个奇数*奇数的理由:因为更容易padding。卷积中有一种same convolution,也就是卷积前后尺寸(高x...