学大东西得先有动力,就像教人钓鱼得让他尝到鲜!OpenAI大佬HyungWonChung:让他尝到甜头,再让他保持点饥饿感 未来视界 发布时间:2分钟前在科技的麦田里,寻找灵感 关注 发表评论 发表 相关推荐 自动播放 加载中,请稍后... 设为首页© Baidu 使用百度前必读 意见反馈 京ICP证030173号 京公网安备11000002000001号...
OpenAI 首席科学家 Hyung Won Chung 麻省理工演讲 揭示 o1模型训练核心秘密: 通过激励模型学习是培养 AGI 系统通用技能的最佳方式。 在他的演讲中,他提出了类比“教人钓鱼”的方式,强调激励学习的重要性:“授...
#模型时代# OpenAI 研究员 Hyung Won Chung:我们从Transformer的历史中学到了什么。这个讲座和Jason Wei的“大语言模型的扩展范式”(传送门:O高飞)属于同一系列,都是宾夕法尼亚大学 CIS 7000 的系列课程之一。Hyung Won Chung作为 O1 模型的主要开发者,分享了对 AI 发展方向的见解,特别是从 Transformer 架构的历...
本文为OpenAI研究科学家Hyung Won Chung在2023年关于大语言模型的总结,为其的一些基本观察,在过去四年工作期间以及和一些领域内杰出人才交流的经验总结。 1 “大”的必要性 今天我们要讨论的主题是大语言模型在2023年的前景。之所以要强调2023年,是因为在2023年的“大”语言模型,之后可能会被看做是“小模型”,甚至...
https://www.youtube.com/watch?v=kYWUEV_e2ssOpenAI o1 核心成员 Hyung Won Chung 分享最新内幕 (2/2), 视频播放量 4463、弹幕量 1、点赞数 141、投硬币枚数 39、收藏人数 403、转发人数 51, 视频作者 AI深度洞察, 作者简介 AI Deep Insights 快速洞察最新AI趋势,相关视频
698 -- 1:17:07 App Stanford CS25 V4:Jason Wei & Hyung Won Chung, OpenAI 8113 42 8:39:02 App 【中英字幕】斯坦福新课CS25-Transformers United来啦!简直讲得太棒啦!-人工智能/AI/深度学习 1629 -- 34:15:52 App 【Transformer cs25 v1-v4】斯坦福—中英字幕 3941 -- 1:17:29 App 【精校...
近期,OpenAI的研究科学家HyungWon Chung在麻省理工学院(MIT)的一场演讲中提出了一个颇具前瞻性的观点:激励AI自我学习比试图教授每一项具体任务更为重要。这一理念不仅挑战了传统的教学模式,还显示了AI技术未来发展的新方向。Chung认为,通向通用人工智能(AGI)的唯一可行之路在于激励模型形成通用技能,这一观点引发了广泛...
在当前人工智能领域谨慎而又迅速发展的背景下,OpenAI的研究科学家HyungWon Chung于近日在麻省理工学院(MIT)的一次演讲中提出了一个颇具争议的新理念。他强调,激励AI自主学习的方式比逐一教授每项任务更为重要,这一观点在科技界引起了广泛关注。HyungWon通过自己的研究成果及对未来AI发展的深刻理解,揭示了推动AI进步的潜...
OpenAI 研究科学家 Hyung Won Chung: 「Deep Research 的一个显著特点是其极度的耐心。我认为这正迅速接近“超人类的耐心”。在这个项目中的一个认识是,智慧与耐心确实相得益彰。 就像我们的推理模型 o1 一样,...
其中关键,OpenAI研究科学家、o1核心贡献者Hyung Won Chung,刚刚就此分享了他在MIT的一次演讲。 演讲主题为“Don’t teach. Incentivize(不要教,要激励),核心观点是: 激励AI自我学习比试图教会AI每一项具体任务更重要 思维链作者Jason Wei迅速赶来打call: ...