model.add(layers.MaxPooling2D((2, 2))) #卷积层,卷积核是3*3,激活函数relu model.add(layers.Conv2D(128, (3, 3), activation='relu')) #最大池化层 model.add(layers.MaxPooling2D((2, 2))) #卷积层,卷积核是3*3,激活函数relu model.add(layers.Conv2D(128, (3, 3), activation='relu')...
return y #mnist_lenet5_backward.py #coding utf-8 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #import mnist_lenet5_forward import os import numpy as np BATCH_SIZE = 100 LEARNING_RATE_BASE = 0.005 LEARNING_RATE_DECAY = 0.99 REGULARIZER = 0.0001 STEPS =...
https://github.com/uestcsongtaoli/LeNet-5 个人理解 1. 模型介绍 上图是 LeCun 原论文中 LeNet-5 的结构图。 卷积层 C1 Conv2D(filters=6, kernel_size=(5, 5), padding=None, stride=(1, 1), activation='tanh') 池化层,用的是平均池化 S1 AveragePooling2D(pool_size=(2, 2), stride=(2,...
http://yann.lecun.com/exdb/lenet/ 个人github 实现 https://github.com/uestcsongtaoli/LeNet-5 个人理解 1. 模型介绍 原论文图片 上图是 LeCun 原论文中 LeNet-5 的结构图。 卷积层 C1 Conv2D(filters=6,kernel_size=(5,5),padding=None,stride=(1,1),activation='tanh') 池化层,用的是平均...