2. CONV layer使用小的 filter(3x3,最多是 5x5),步长S=1,需要对输入进行零填充以保持输入的大小 ( 宽度x高度 ). 如果非要使用 大的filter(比如7x7),只有在跟输入的图像相邻的第一个卷积层上使用。 3. POOL layer 控制对输入的下采样,一般是Max pooling,最常用的是 2x2 ,步长S=2,这个设置就舍弃了 75...
要构造输出方体的第二个激活映射,我们有:V[0, 0, 1] = np.sum(X[:5, :5, :] * W1) + b1V[1, 0, 1] = np.sum(X[2:7, :5, :] * W1) + b1V[2, 0, 1] = np.sum(X[4:9, :5, :] * W1) + b1V[3, 0, 1] = ...
Overview and intuition without brain stuff.Let’s first discuss what the CONV layer computes without brain/neuron analogies. The CONV layer’s parameters consist of a set of learnable filters. Every filter is small spatially (along width and height), but extends through the full depth of the i...
然后初始化每一层的网络结构信息,它的基本单元包括: 卷积层(Convolution layer), 反卷积层(Convolution transpose layer), 归一化层(Normalization layer), 激活函数(Activation functions), 池化层( Pooling layer),全连接层(Fully connected layer),损失函数, ROI pooling等。 下面是我自己定义的网络结构信息: net....