北京时间 12 月 8 日凌晨,正在线上举行的全球人工智能顶会 NeurIPS 2020 公布了最佳论文等奖项。在一千八百余篇论文中,三篇论文获会议最佳论文奖项,OpenAI 等机构的 GPT-3 研究名列其中,可谓实至名归。 人工智能顶会 NeurIPS 2020 于本月 6 日 - 12 日在线上举行,预计此次会议将迎来 18,000 名参会者...
科学家们还没有发现任何与这种信息处理相对应的大脑回路或学习机制,MIT 计算认知科学教授 Joshua Tenenbaum (本文作者之一)表示,然而新发现与先前提出的假设是一致的,即预测是语言处理的关键功能之一。 「语言处理的挑战之一是实时性,」他说,「语言输入了,你必须跟上,并且要实时理解它。」 研究人员打算建立这些语...
我们知道了GPT-3可以以自己为研究对象写学术论文,并且效率还挺高。但是为啥要让它以自己为题写论文呢?根据研究者Almira 的自述,原因主要有以下两点:其一,目前GPT-3还算比较新,关于它的研究还很少,可以用来检验GPT-3在数据量较小的情况下分析的准确性;其二,AI犯错并不少见,我们想做的不是为了出版AI生成的...
OpenAI 等提出的语言模型GPT-3、米兰理工大学和卡内基梅隆大学提出的 no-regret 学习动态研究,和加州大学伯克利分校关于数据总结的论文共享本届会议的最佳论文奖项。获得时间检验奖的论文则是诞生于 2011 年的研究《HOGWILD!: A Lock-Free Approach to Parallelizing Stochastic Gradient Descent》。 最佳论文奖 今年共有...
北京智源人工智能研究院成立于2018年11月,是在科技部和北京市政府指导和支持下,由北京市科学技术委员会和海淀区政府推动成立的新型研究机构。暴力美学无法实现真正的智能 GPT-3全称Generative Pre-training Transformer-3,即生成式语言模型,通过对不同的书面材料集与长篇连载文本的预训练,以获取关于世界的知识。GPT-...
其一,目前GPT-3还算比较新,关于它的研究还很少,可以用来检验GPT-3在数据量较小的情况下分析的准确性; 其二,AI犯错并不少见,我们想做的不是为了出版AI生成的错误信息,而是这个错误将会是撰写论文过程中实验命令的一部分。 GPT-3会犯错,但它与撰写与自己相关的论文之间并不冲突。 在写完论文准备投稿时,还发生了一...
还有人提出,这简直和科幻故事《银河系漫游指南》的剧情一样,实现通用人工智能的关键是知道如何正确地向AI提问。那么,这种神奇现象究竟怎么回事?语言大模型是零样本推理者 发现这个现象的是谷歌大脑与东京大学的合作研究,探索了语言大模型在零样本场景下的表现。论文标题《语言大模型是零样本推理者》还致敬了GPT-3...
国际著名互联网企业和研究机构互相竞争,将模型规模和性能不断推向新的高度。BERT 之后,短短两年时间,最新发布的 GPT-3 已经达到 1750 亿参数规模、上万块 GPU 的惊人训练规模。在人工智能与深度学习领域围绕超大规模预训练模型展开的“军备竞赛”日益白热化,成为对海量数据、并行计算、模型学习能力的全方位考验。
他们做了个名为TEKGEN的AI模型,直接将知识图谱用“人话”再描述一遍,生成语料库,再喂给NLP模型训练。这是因为,知识图谱的信息来源往往准确靠谱,而且还会经过人工筛选、审核,质量有保障。目前,这项研究已经被NAACL 2021接收。如何让AI用“人话”描述知识图谱?谷歌用来描述知识图谱的TEKGEN模型,全名Text from ...
论文一作小姐姐Oshin Agarwal,是宾夕法尼亚大学的计算机系在读博士生,研究方向是自然语言处理中的信息抽取。 这篇论文,是她在谷歌实习期间完成的。 来自谷歌的Heming Ge、Siamak Shakeri和Rami Al-Rfou也参与了这项工作。 目前,作者们已经将这个用知识图谱生成的语料库放了出来。 想要训练NLP模型的小伙伴,可以用...