(另外,笔者也在更新机器学习算法详解系列文章,只不过更新速度比CS224N中文笔记还慢……) 2. 神经网络-基础 2.1 神经网络结构 这里仅为神经网络基础知识的快速总结。读者若未曾系统地学习神经网络,可学习吴恩达的DeepLearning课程。 神经网络,故名思议,其结构上参考了人脑中神经连接的方式: 我们也类似如上图的结构,将前一层神经
笔者当初是看着2017版的CS224N和hackcs的中文博客入门自然语言处理的。 这几年NLP领域发展迅速,斯坦福也于3月11日放出了其2019冬季班CS224N的课程。秉着自己温习基础知识和便捷入门萌新学习的主旨,笔者决定重新刷一次最新版的CS224N并写一个中文课堂笔记。 建议读者在看完CS224N对应课堂视频后的第二天浏览一下本...
斯坦福 CS224n 中文笔记整理活动 参与方式:https://github.com/apachecn/stanford-cs224n-notes-zh/blob/master/CONTRIBUTING.md 整体进度:https://github.com/apachecn/stanford-cs224n-notes-zh/issues/1 项目仓库:https://github.com/apachecn/stanford-cs224n-notes-zh 贡献指南 请您勇敢地去翻译和改进翻译...
本文为2019版CS224N中文笔记系列第二篇文章,主要探讨如何向计算机表示单词以及如何评估词向量的优劣。正文如下:在上一讲中,我们知道计算机是以编码形式存储语言文字,如汉字“你”在UTF-8编码下是“你”,在Unicode编码下是“\u6211”。然而,这样的表示只有助于信息的存储,不利于信息的计算。因此,...
斯坦福 CS224n 中文笔记整理活动 | ApacheCN 贡献指南 请您勇敢地去翻译和改进翻译。虽然我们追求卓越,但我们并不要求您做到十全十美,因此请不要担心因为翻译上犯错——在大部分情况下,我们的服务器已经记录所有的翻译,因此您不必担心会因为您的失误遭到无法挽回的破坏。(改编自维基百科)...
笔者最近有点懒……原本是想一周双更的,结果却成了两周一更。反正慢工出细活。等读者看到本系列文章的时候,CS224N二十讲中文笔记应该已经更新完了。 1. 多种多样的词向量表示方法 在上一讲中,我们知道,计算机是以编码(如“UTF-8”编码)的形式存储语言文字的。比如汉字“你”在UTF-8编码下是“你”,“我...