假设二:输入范围在横纵方向与接受域不是是倍数关系 (图16 ) (图17) 以图15为参考,只是把输入域变成图16所示的8*8的情况,若步长还是(3,3),那么横纵向各移动一次后就无法移动了,即接受域的可视范围为粉色边框内的6*6的区域(图16的粉红框A区域和B区域),外侧的2行2列的数据是读不到的。这种情况有两种处...
这里举了两个例子。第一个是批大小为 1、通道为 3 的 7 × 7 的数据,第二个的批大小为 10,数据形状和第一个相同。分别对其应用im2col函数,在这两种情形下,第 2 维的元素个数均为 75。这是滤波器(通道为 3、大小为 5 × 5)的元素个数的总和。批大小为 1 时,im2col的结果是(9, 75)。而第 2 ...
卷积神经网络入门(深度学习准备二) 1、卷积神经网络组成 卷积神经网络由 卷积层、池化层、全连接层组成,本文主要展示每一个层次的组成以及基本参数运算法则。 卷积层(Convolution Layer) 卷积层的主要作用是对输入的数据进行特征提取,而完成该功能的是卷积层中的卷积核(Filter),卷积核可以看成是一个指定窗口大小的扫...
深度学习入门-卷积神经网络(二)池化层 池化是缩小高、长方向上的空间的运算。 图中是按步幅2进行2 × 2的Max池化时的处理顺序。“Max池化”是获取最大值的运算,“2 × 2”表示目标区域的大小。 一般来说,池化的窗口大小会和步幅设定成相同的值。比如,3 × 3的窗口的步幅会设为3,4 × 4的窗口的步幅会...
首先两个黄色的是卷积层,是VGG16网络结构十六层当中的第一层(Conv1_1)和第二层(Conv1_2),他们合称为Conv1。 我们主要讲述第一个,也就是第一层(Conv1_1),它怎么把一个300*300*3的矩阵变成一个300*300*64的矩阵? 我们假设蓝色框是一个RGB图像,橙色是一个3*3*3的卷积核,我们对一个三维的27个数求...
二、卷积层 2.1 卷积运算 输入特征图与卷积核作乘积累加运算,窗口以一定的步长滑动,得到输出特征图,也可以加偏置(1*1) 卷积核(滤波器)相当于全连接层中的权重。 卷积完后,偏置将应用于所有数据 2.2 填充(padding) 向输入数据的周围填入固定的数据(比如0等) ...
第二卷积层和池化层 全连接层 Logit层 1. 准备数据集 1.1 导入数据 首先需要导入必要的库,除了TensorFlow,我们将使用: numpy 计算、处理多维数组的python包 sklearn 机器学习相关的包,包含许多有用的函数 sklearn可用于导入MNIST数据集,预处理数据等。
12)CelebA是一个名人人脸图像数据集(如图1.20所示),共包含10?177位名人的202?599幅人脸图像,其中训练集有162?770幅图像,验证集有19?867幅图像,测试集有18?962幅图像。每幅人脸图像有40个不同的二值属性标注,比如是否微笑、是否戴眼镜、是否戴帽子等。本书在第10章的DCGAN人脸生成案例中使用了CelebA。
为节点Z1、Z2各设置一个根据符号取值的激活函数:y=[0,1][x<0](如果小于0则返回1,否则返回0)。则Z2所代表的几何意义与图1-5中所描述的一致,同理可以理解Z1节点的意义。Z1、Z2两个节点都把平面直角坐标系上的点分成了两部分。而Z3则可以理解成是对Z1、Z2两个节点输出结果的二次计算。
第一个是黄色卷积核,假设是一个垂直边界检测器。第二个卷积核是橘色,假设是一个水平边界检测器。这样就得到4×4×2的输出。根据这个我们可以发现,假设c0表示输入通道数,c1表示输出通道数,则有n×n×c0和一个c1×f×f×c0的卷积核进行处理,得到一个(n−f+1×c1)×(n−f+1×c1)的输出。