[1] https://sites.google.com/view/berkeley-cs294-158-sp20[2] http://blog.showmeai.tech/cs294-158/[3] https://www.bilibili.com/video/BV12341167kL 推荐学习
主要希望建立与通用智能一样的概念--迁移学习、学习可重复使用的概念/抽象概念、建立计划和想象力、按图索骥等。 6.7 主课结束 主要课程内容已经结束,在后面的几节课中将介绍无监督学习在各方面的应用; 本节课以Yann LeCun所画的蛋糕结束! 课程网址 https://sites.google.com/view/berkeley-cs294-158-sp20/hom...
自回归密度模型,流模型,VAEs, 强化学习(RL)中的UL,都有巨大的提升空间。是时候从事于这些研究了。 课程网址 https://sites.google.com/view/berkeley-cs294-158-sp20/home 欢迎关注“深度无监督学习”
课程网址 https://sites.google.com/view/berkeley-cs294-158-sp20/home 官方代码 https://github.com/rll/deepul 欢迎关注“深度无监督学习”
1 动机1.1 隐变量模型前几节所讲模型(自回归、流模型等)所建模描述的变量都是可观测的隐变量模型中部分变量不可观测, 例1:高斯混合模型(GMM)中某个样本是来自哪个高斯分布是未知的例2:高维数据的低维表示(下图…
窃以为自监督学习在标签生成、模型结构设计方面仍有很大发展空间。 课程网址 https://sites.google.com/view/berkeley-cs294-158-sp20/home 官方代码 https://github.com/rll/deepul
通过神经网络建模条件概率分布,整体表达一个贝叶斯网络,这就是自回归模型。 举例: 数据集:x_1,x_2 模型:p(x_1,x_2)=p(x_1)p(x_2|x_1) 假设p(x_1)是频率分布直方图 假设p(x_2|x_1)是多层感知机 输入是x_1 输出是x_2的分布(逻辑值,后接Softmax层归一化) 4.2 权值共享 引入权值共享的两...
也期待GAN能够在其他学科上大放异彩。 课程网址 https://sites.google.com/view/berkeley-cs294-158-sp20/home 官方代码 https://github.com/rll/deepul 欢迎关注“深度无监督学习”
这可能会让人感到不满意,虽然GAN在模型不断变大时,生成了了越来越好的样本[Ian Goodfellow’s twitter] 课程网址 https://sites.google.com/view/berkeley-cs294-158-sp20/home 官方代码 https://github.com/rll/deepul 欢迎关注“深度无监督学习”
结合上节课自回归模型内容,将其引入到流模型中,对高维变量进行建模。 x_1\rightarrow z_1=f_{\theta}(x_1) x_2\rightarrow z_2=f_{\theta}(x_1,x_2) 注释:自回归流的MLE可拆分为以下几项(略去对样本的求和号) \begin{eqnarray}& &\log p_{Z}(z_1,z_2)+\log \left|\frac{\partial ...