主会论文词云 从上图可以看出,ACL 2024会议上,最显眼的就是“Large Language Model(大型语言模型)”,这说明大规模预训练模型依然是研究的核心。像“生成(Generation)”、“理解(Understanding)”、“推理(Reasoning)”和“评估(Evaluation)”这些关键词也频繁出现,表明研究者们致力于让这些模型变得更智能和可靠。跨语...
今年是ACL举办的第62个年头,大会聚焦于NLP领域的最新研究成果和技术趋势,接收了400余篇 NLP 领域的前沿工作。 8月14日(也就是昨日),大会正式公布了本届获得Best Paper等奖项的工作:获Best paper奖项的文章共7 篇(两篇未公开)、Theme paper 奖项文章1 ...
01 Speculative Decoding via Early-exiting for Faster LLM Inference with Thompson Sampling Control Mechanism 论文类型:Long Paper 论文下载:PDF 论文简介:近期,大型语言模型(LLMs)的发展突飞猛进,随之而来的就是推理成本上涨,这已经成为实际应用中较大的一个挑战。为了应对这些挑战,我们提出了一种名为「早期退出投...
8月 14 日,ACL 2024 的各类奖项逐一揭晓,共有 7 篇成果荣获 Best Paper,华中科技大学、阿德莱德大学、安阳师范学院、华南理工大学共同发表的「Deciphering Oracle Bone Language with Diffusion Models」获奖,HyperAI超神经为大家带来了详细解读。 8月 11 日,享誉全球的 Annual Meeting of the Association for Computa...
ACL 2024 | 多快好省!上科大提出层间KV共享的大模型高效推理新方法 ©PaperWeekly 原创 · 作者 |吴昊一、吴悠 单位|上海科技大学 研究方向 |自然语言处理 在大语言模型的部署中,巨大的显存消耗是限制其吞吐量的主要瓶颈。键-值(key-value, KV)缓存是占用显存的一个重要部分,因此减少其显存消耗的方法...
在8 月 14 日下午的 Paper Awards 环节,字节跳动旗下成果《G-DIG: Towards Gradient-based DIverse and high-quality Instruction Data Selection for Machine Translation》被主办方官宣入选 Outstanding Paper(1/35)。 ACL 2024 现场照片 回溯ACL 2021,字节跳动曾摘下唯一一篇最佳论文桂冠,是 ACL 成立 59 年以来...
【新智元导读】近日,清华大学电子系城市科学与计算研究中心的研究论文《EconAgent: Large Language Model-Empowered Agents for Simulating Macroeconomic Activities》获得自然语言处理顶会 ACL 2024杰出论文奖(Outstanding Paper Award)。该会议于2024年8月11日至16日在泰国曼谷举办,获得此项荣誉的论文约占投稿论文总数...
Research collaborators from Bocconi University, Allen Institute for AI, Intel Labs, University of Oxford, and LMU Munich received the Outstanding Paper Award for their long paper at ACL 2024 on August 11-16. Intel Labs also collaborated on a second oral paper that ...
ACL 2024的接受论文列表已公布,此次会议的主题词云显示,大型语言模型研究仍然是核心。研究者们关注生成、理解、推理和评估,努力让模型变得更智能、更可靠。跨语言和多模态研究升温,表明了对提升模型处理多种输入形式和语言能力的兴趣。模型性能评估和数据集构建受到重视,以确保模型在真实世界中的可靠性和...
This repository contains the code and data for our ACL 2024 paperLong-Context Language Modeling Parallel Encodings. In this work, we proposeCEPE—ContextExpansion withParallelEncoding — a flexible framework for extending the context window of language models. This repository includes the code for prep...