共同学习,共同进步! 吴恩达(Andrew Ng)相信大家都不陌生了。8 月 8 日,吴恩达在他自己创办的在线教育平台 Coursera 上线了他的人工智能专项课程(Deep Learning Specialization)。此课程广受好评,通过视频讲解、作业与测验等让更多的人对人工智能有了了解与启蒙,国外媒体报道称:吴恩达这次深度学习课程是迄今为止,最全面...
上节课我们主要对深度学习(Deep Learning)的概念做了简要的概述。我们先从房价预测的例子出发,建立了标准的神经网络(Neural Network)模型结构。然后从监督式学习入手,介绍了Standard NN,CNN和RNN三种不同的神经网络模型。接着介绍了两种不同类型的数据集:Structured Data和Unstructured Data。最后,我们解释了近些年来深度...
并以逻辑回归为例,将其算法流程包括梯度下降转换为向量化的形式,从而大大提高了程序运算速度。本节课我们将从浅层神经网络入手,开始真正的神经网络模型的学习。 ——上期回顾 1 Neural Networks Overview 首先,我们从整体结构上来大致看一下神经网络模型。 前面的课程中,我们已经使用计算图的方式介绍了逻辑回归梯度下降...
逻辑回归是一个学习算法,用于对真值只有0或1的“逻辑”问题进行建模。给定输入 x ,逻辑回归输出一个 \hat{y} 。这个 \hat{y} 是对真值 y 的一个估计,准确来说,它描述的是 y=1 的概率,即 \hat{y}=P(y=1 \ | \ x) 逻辑回归会使用一个带参数的函数计算 \hat{y} 。这里的参数包括 w \in \...
一般我们用预测值和实际值的平方差或者它们平方差的一半,但是通常在逻辑回归中我们不这么做,因为当我们在学习逻辑回归参数的时候,会发现我们的优化目标不是凸优化,只能找到多个局部最优值,梯度下降法很可能找不到全局最优值,虽然平方差是一个不错的损失函数,但是我们在逻辑回归模型中会定义另外一个损失函数。
李沐、吴恩达、小土堆,深度学习入门课笔记和中文代码注释 李沐《动手学深度学习》、吴恩达《深度学习》、小土堆《pytorch入门》,深度学习三大导师课,入门课笔记和中文代码注释#人工智能 #深度学习 #深度学习入门 #pytorch #pyt - 人工智能论文搬砖学姐于20240517发布在抖
第一周:深度学习的实践层面 (Practical aspects of Deep Learning) 1.1 训练,验证,测试集(Train / Dev / Test sets) 创建新应用的过程中,不可能从一开始就准确预测出一些信息和其他超级参数,例如:神经网络分多少层;每层含有多少个隐藏单元;学习速率是多少;各层采用哪些激活函数。应用型机器学习是一个高度迭代的...
吴恩达《神经网络与深度学习》课程笔记(1)-- 神经网络基础之Python与向量化,程序员大本营,技术文章内容聚合第一站。
吴恩达深度学习课程四:卷积神经网络(学习笔记) 1.传统边缘检测 实行卷积操作,传统图像边缘检测一般使用卷积操作。 方法为:使用f*f大小的过滤器与输入相乘并累加,通过在输入数据上滑动操作,实现卷积过程。 可水平检测也可垂直检测,过滤器参数需要手工设定,检测能力有限。 2.卷积神经网络 分为:卷积层、池化层、全...