而就在最近,计算机历史博物馆(CHM)与谷歌合作,终于正式开源了 AlexNet 的源代码!更令人惊喜的是,这次公开的版本是 2012 年 Hinton 团队亲手编写的原版代码,甚至还保留了当年的注释!AlexNet 的传奇时刻:改变计算机视觉的 2012 年 时间回到 2012 年,当时 ImageNet 大规模视觉识别挑战赛(ILSVRC)已经举办了两...
事实上,自 2012 年论文发布后,AlexNet 的源码已经有了多个版本,GitHub 上也有不少名为「AlexNet」的代码库,但其中许多并不是原始代码,而是根据那篇论文重新创建的。此前,Krizhevsky 开发的 AlexNet 前身 ——cuda-convnet 也曾作为开源代码发布,但它是在较小的 CIFAR-10 数据集上训练的。CHM 发布的代码...
ImageNet 挑战赛冠军团队的分类错误率逐年变化情况(越低越好)。 有意思的是,AlexNet 的基本结构和之前那些 CNN 架构并没有太大区别,比如 Yann LeCun 等人 1998 年提出的 LeNet-5。当然,这么说并不是想抹杀 AlexNet 的创新性,但这确实引出了一个问题:「既然 CNN 不是什么新东西,AlexNet 的巨大成功还可以归因...
AlexNet是2012年ILSVRC(ImageNet Large Scale Visual Recognition Competition) 的冠军,这是一个图像分类比赛。 这是2012年来自Hinton教授团队的NIPS论文,在我(指原作者)写这篇文章的时候被引用了28000次。它在深度学习方面取得了重大突破,大大降低了ILSVRC 2012的错误率,如下图所示。因此,这是一篇必读的论文!! Image...
当时,来自多伦多大学的 Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton 等人提出了一个名为「AlexNet」的深度神经网络并凭借该网络赢得了 2012 年大规模视觉识别挑战赛的冠军。在这场比赛中,参赛者需要完成一个名叫「object region」的任务,即给定一张包含某目标的图像和一串目标类别(如飞机、瓶子、猫),每个团队...
AlexNet的全写为Alex Krizhevsky等人提出的深度卷积神经网络,这一命名不仅是对提出者Alex Krizhevsky及其团队的致敬,更是对他们在深度学习领域开创性贡献的认可。AlexNet不仅是一个具体的网络模型,更是深度学习发展历程中的一个重要里程碑。 一、AlexNet的背景与意义 AlexNet诞生于2012年,由加拿大多伦多大学的Alex Krizh...
2012年,Khrizhevsky,Sutskever和Hinton凭借8层的卷积神经网络AlexNet,以很大的优势赢得了ImageNet 2012图像识别挑战赛,识别错误率比第二名低大概10个百分点。 模型结构 这个模型有一些显著的特征。第一,与相对较小的LeNet相比,AlexNet包含8层(可学习层),其中有五层卷积和两层全连接隐含层,以及一个输出层。 第一层...
没想到,自 2012 年 AlexNet 开启的深度学习革命已经过去了 12 年。而如今,我们也进入了大模型的时代。近日,知名 AI 研究科学家 Andrej Karpathy 的一条帖子,让参与这波深度学习变革的许多大佬们陷入了回忆杀。从图灵奖得主 Yann LeCun 到 GAN 之父 Ian Goodfellow,纷纷忆往昔。到目前为止,该帖子已经有 ...
综述AlexNet 是 2012 年 ImageNet 图像分类竞赛冠军,首次将深度学习和卷积神经网络用于大规模图像数据集分类,比之前的模型有巨大的性能飞跃。在 ILSVRC-2012 图像分类竞赛中获得了 top-5 误差 15.3% 的冠军成绩…
打开这份代码压缩包,首先跳入眼帘的是一份2012年10月的实验记录文档。泛黄的电子日志里赫然写着:"GPU显存不足,尝试将卷积核尺寸从11x11缩减到9x9"。这行看似普通的注释,可能正是当年突破计算瓶颈的关键转折点。在conv_layer.py文件里,开发者用红字标注着警告:"千万别动第37行的权重初始化参数!"资深AI...