今年是ACL举办的第62个年头,大会聚焦于NLP领域的最新研究成果和技术趋势,接收了400余篇 NLP 领域的前沿工作。 8月14日(也就是昨日),大会正式公布了本届获得Best Paper等奖项的工作:获Best paper奖项的文章共7 篇(两篇未公开)、Theme paper 奖项文章1 ...
主会论文词云 从上图可以看出,ACL 2024会议上,最显眼的就是“Large Language Model(大型语言模型)”,这说明大规模预训练模型依然是研究的核心。像“生成(Generation)”、“理解(Understanding)”、“推理(Reasoning)”和“评估(Evaluation)”这些关键词也频繁出现,表明研究者们致力于让这些模型变得更智能和可靠。跨语...
8月 14 日,ACL 2024 的各类奖项逐一揭晓,共有 7 篇成果荣获 Best Paper,华中科技大学、阿德莱德大学、安阳师范学院、华南理工大学共同发表的「Deciphering Oracle Bone Language with Diffusion Models」获奖,HyperAI超神经为大家带来了详细解读。 8月 11 日,享誉全球的 Annual Meeting of the Association for Computa...
01 Speculative Decoding via Early-exiting for Faster LLM Inference with Thompson Sampling Control Mechanism 论文类型:Long Paper 论文下载:PDF 论文简介:近期,大型语言模型(LLMs)的发展突飞猛进,随之而来的就是推理成本上涨,这已经成为实际应用中较大的一个挑战。为了应对这些挑战,我们提出了一种名为「早期退出投...
【新智元导读】近日,清华大学电子系城市科学与计算研究中心的研究论文《EconAgent: Large Language Model-Empowered Agents for Simulating Macroeconomic Activities》获得自然语言处理顶会 ACL 2024杰出论文奖(Outstanding Paper Award)。该会议于2024年8月11日至16日在泰国曼谷举办,获得此项荣誉的论文约占投稿论文总数...
ACL 2024 | 多快好省!上科大提出层间KV共享的大模型高效推理新方法 ©PaperWeekly 原创 · 作者 |吴昊一、吴悠 单位|上海科技大学 研究方向 |自然语言处理 在大语言模型的部署中,巨大的显存消耗是限制其吞吐量的主要瓶颈。键-值(key-value, KV)缓存是占用显存的一个重要部分,因此减少其显存消耗的方法...
Research collaborators from Bocconi University, Allen Institute for AI, Intel Labs, University of Oxford, and LMU Munich received the Outstanding Paper Award for their long paper at ACL 2024 on August 11-16. Intel Labs also collaborated on a second oral paper that ...
©PaperWeekly 原创 ·作者 |朱杰 单位|阿里云 研究方向 |NLP、LLM应用 背景 随着大型语言模型(LLMs)在自然语言处理(NLP)领域的突破性进展,对于评估这些模型的新基准测试的需求变得迫切。特别是在中文金融领域,现有数据集在规模和多样性上的限制,使得对 LLMs 进行全面评估面临挑战。
Security Insights Additional navigation options main 1Branch0Tags Code README Apache-2.0 license GradSafe Official Code for ACL 2024 paper "GradSafe: Detecting Jailbreak Prompts for LLMs via Safety-Critical Gradient Analysis"https://arxiv.org/abs/2402.13494 ...
1.研究领域层次结构(Fos Fields of Study)构建:使用经过微调的 PL-Marker 模型从 ACL Anthology 和 arXiv cs.CL 类别Paper的标题和摘要中自动提取实体和关系,并构建高质量的层次结构图。然后经过领域专家人共修正和构建FoS hierarchy graph。最终生成了421个实体(领域:Fields of Study),530个关系,最高可达7层深度...