学大东西得先有动力,就像教人钓鱼得让他尝到鲜!OpenAI大佬HyungWonChung:让他尝到甜头,再让他保持点饥饿感 未来视界 发布时间:2分钟前在科技的麦田里,寻找灵感 关注 发表评论 发表 相关推荐 自动播放 加载中,请稍后... 设为首页© Baidu 使用百度前必读 意见反馈 京ICP证030173号 京公网安备11000002000001号...
OpenAI 首席科学家 Hyung Won Chung 麻省理工演讲 揭示 o1模型训练核心秘密: 通过激励模型学习是培养 AGI 系统通用技能的最佳方式。 在他的演讲中,他提出了类比“教人钓鱼”的方式,强调激励学习的重要性:“授...
#模型时代# OpenAI 研究员 Hyung Won Chung:我们从Transformer的历史中学到了什么。这个讲座和Jason Wei的“大语言模型的扩展范式”(传送门:O高飞)属于同一系列,都是宾夕法尼亚大学 CIS 7000 的系列课程之一。Hyung Won Chung作为 O1 模型的主要开发者,分享了对 AI 发展方向的见解,特别是从 Transformer 架构的历...
OpenAI 研究员 Hyung Won Chung:我们从Transformer的历史中学到了什么。 1. "在 AI 研究中存在着一股主导性的驱动力:计算成本每五年下降 10 倍" Chung 指出,尽管 AI 进展看似纷繁复杂,但实际上有一个最核心的驱动因素:指数级下降的计算成本。他引用了 Rich Sutton 的数据显示,每投入 1000 美元能够获得的计算能...
https://www.youtube.com/watch?v=kYWUEV_e2ssOpenAI o1 核心成员 Hyung Won Chung 分享最新内幕 (2/2), 视频播放量 4463、弹幕量 1、点赞数 141、投硬币枚数 39、收藏人数 403、转发人数 51, 视频作者 AI深度洞察, 作者简介 AI Deep Insights 快速洞察最新AI趋势,相关视频
本文为OpenAI研究科学家Hyung Won Chung在2023年关于大语言模型的总结,为其的一些基本观察,在过去四年工作期间以及和一些领域内杰出人才交流的经验总结。 1 “大”的必要性 今天我们要讨论的主题是大语言模型在2023年的前景。之所以要强调2023年,是因为在2023年的“大”语言模型,之后可能会被看做是“小模型”,甚至...
OpenAI Research Scientist Hyung Won Chung 在首尔国立大学发表的一场演讲。 以下是作者写的视频介绍: --- 这次演讲我取名为“2023年的大语言模型”。 这是一次激进的尝试,希望能总结一下我们这个日新月异、快速发展的领域。 试图总结这个领域让我深思:在这个领域中,什么是真正关键的呢?虽然“扩展”无疑是显著...
作者: 科学家/工程师训练AI的方法,让我想起了教育本身。Hyung Won Chung 在 MIT 的讲座 "Don't teach. Incentivize." (网页链接)看这个标题,不要教,要激励。
698 -- 1:17:07 App Stanford CS25 V4:Jason Wei & Hyung Won Chung, OpenAI 8113 42 8:39:02 App 【中英字幕】斯坦福新课CS25-Transformers United来啦!简直讲得太棒啦!-人工智能/AI/深度学习 1629 -- 34:15:52 App 【Transformer cs25 v1-v4】斯坦福—中英字幕 3941 -- 1:17:29 App 【精校...
其中关键,OpenAI研究科学家、o1核心贡献者Hyung Won Chung,刚刚就此分享了他在MIT的一次演讲。 演讲主题为“Don’t teach. Incentivize(不要教,要激励),核心观点是: 激励AI自我学习比试图教会AI每一项具体任务更重要 思维链作者Jason Wei迅速赶来打call: ...