总得来说,我个人比较推荐以下几次lecture: OpenAI的两位大佬的Lecture:两位大佬给出了非常有insight的讲解。 Aligning Open Language Models:一个关于LLM近期进展的很好的overview。 Demystifying Mixtral of Experts:讲述了关于MoE模型的一些细节。 From Large Languag
第一步:网页端搜索 Stanford CS25 V4 进入主页之后: 找到Recordings & Slides: 点击这里就可以开始学些了: 一共有33节课,包含了从21年到24年全部的课件和视频录像,请到的都是OpenAI Google 剑桥等等人工智能领域的权威专家来讲课。 包含了大语言模型迭代、AI多模态、机器学习等等。 全部都深入浅出,完美教程强烈...
https://www.youtube.com/watch?v=pC4zRb_5noQ&list=PLoROMvodv4rNiJRchCzutFw5ItR_Z27CM&index=8 斯坦福 CS25:Transformer Circuits, Induction Heads, In-Context Learning 公开课 知识 校园学习 NLP CV 神经网络 算法 AI Transformer RL 斯坦福 Deep Learning ...
Stanford Seminar [CS25] |斯坦福transformer研讨会:Decision Transformer - 中英文混搭内容整理 Ayres 本升专考试备考中 22 人赞同了该文章 目录 收起 参考资料 一、简介 示例 研究动机 强化学习 Online Offline 挑战 提问:为什么强化学习的参数会比语言模型的参数少这么多? 提问:为什么这里研究的是offline而不是...
课程官网:https://web.stanford.edu/class/cs25/ 课程视频链接:https://www.youtube.com/watch?v=P127jhj-8-Y&list=PLoROMvodv4rNiJRchCzutFw5ItR_Z27CM
270 0 01:20:04 App Stanford CS25 V4:大语言模型到多模态大模型 325 0 01:21:15 App Stanford EE259:MIMO成像雷达、到达方向估计和目标检测 81 0 01:18:28 App Stanford EE364A:Convex Optimization lecture1 420 1 43:58 App Zero Bubble (Almost) Pipeline Parallelism 2119 0 01:18:44 App Stanf...