Parker Carlson, Shanxiu He ,Yingrui Yang, Tao Yang机构:加州大学圣巴巴拉分校链接:https://sites.cs.ucsb.edu/~tyang/papers/2024EMNLP-CameraReady.pdf获奖理由:提出了一个 probablistically-rank-safe 的动态 pruning 方案,用于快速的基于聚类的稀疏检索,这个方案对于...
近日,国际顶会EMNLP 2024揭晓论文录用结果,联汇科技论文《OmAgent: A Multi-modal Agent Framework for Complex Video Understanding with Task Divide-and-Conquer》(OmAgent: 一种基于分而治之策略的复杂视频理解多模态智能体框架)被EMNLP 2024录用,标志着联汇科技在智能体领域的创新成就再次得到国际认可。EMNLP ...
1.EMNLP2024投稿2024-05-30 收起 AbstractEMNLP2024的DDL是6月15日,没有匿名期,需要提交到Open Review平台。文章类型包括long paper和short paper. 基本上只认long paper.1. Overview接收long 和 short papers,包含传统的研究结果,也包含负向的findings,某一个领域的survey,新的资源的宣告,一个观点,新颖的insights...
今天给大家分享两篇来自EMNLP2023和CVPR2024的论文。第一篇论文从信息流的角度针对上下文学习(ICL)的工作原理提出了两个假设,设计实验验证了假设,并提出了三种应用方法用于提升ICL的性能;第二篇论文提出了一个针对长视频理解任务的多模态大型语言模型TimeChat,用于识别长视频中的重要事件,精确定位事件的开始和结束时间,...
近日,EMNLP 2024公布了录用论文列表,实验室共有三篇长文被录用为findings。EMNLP是计算语言学和自然语言处理领域的国际顶级会议,在学术界及业界都享有盛誉,在CCF推荐列表中认定为B类学术会议,在清华计算机学术推荐列表中认定为A类会议。 录用论文一:Break...
本篇分享 EMNLP 2024 论文MIBench: Evaluating Multimodal Large Language Models over Multiple Images,阿里通义实验室提出MLLM多图能力评估基准MIBench。 论文链接:arxiv.org/abs/2407.1527 数据链接:huggingface.co/datasets 动机 近年来,多模态大模型 (MLLMs) 在视觉描述、问答、推理等多种视觉-语言任务上展现出卓越...
在理解语言模型(LM)的可解释性方面,已有多项研究对 Transformer 模型的解释方法进行了探索。Belinkov 和 Glass(2019)概述了分析神经语言处理的不同方法,强调了解释 LM 的重要性。特别是,在反向传播的上下文中对梯度的分析被认为是一个新的贡献。 现有的方法主要集中在前向传递的隐状态和权重的映射上。例如,nost ...
近日,阿里云人工智能平台PAI与复旦大学王鹏教授团队合作,在自然语言处理顶级会议EMNLP 2024上发表论文《Distilling Instruction-following Abilities of Large Language Models with Task-aware Curriculum Planning》。文章提出了一个名为 TAPIR 的知识蒸馏框架,TAPIR 通过多任务课程规划来蒸馏黑盒大语言模型的指令回答能力,在...
计算语言学与自然语言处理顶级国际会议EMNLP 2024将于2024年11月12日至16日在美国佛罗里达州迈阿密召开。EMNLP 2024只接受ACL Rolling Review(ARR)投稿通道,同时要求投稿作者中必须有人承担审稿任务。截稿日期为2024年6月15日。 官方网站:https://2024.emnlp.org/ ...
链接:https://aclanthology.org/2024.emnlp-main.142.pdf 获奖理由:通过将梯度投射到词汇空间来实现可解释性,为模型编辑引入了一种优雅而直观的方法。 摘要:了解基于 Transformer 的语言模型(LM)如何学习和调用信息是深度学习领域的一个关键目标。最近的可解释性方法将前向传递获得的权重和隐藏状态投射到模型的词汇...