论文 18:Knowledge Transfer in Incremental Learning for Multilingual Neural Machine Translation机构:清华大学,北京信息科学与技术国家研究中心,上海人工智能实验室,中国科学技术大学论文作者:Kaiyu Huang, Peng Li , Jin Ma, Ting Yao, Yang Liu论文地址:https://aclanthology.org/2023.acl-long.852/ 论文 ...
本文介绍我们团队发表在 ACL2023上的基于反事实推理的虚假信息检测鲁棒性增强框架的工作: Counterfactual Debiasing for Fact Verification。1 引言 随着信息数量急剧增长,未经证实的言论在网络上变得普遍,给公…
NLP 领域的顶级学术会议国际计算语言学年会(Annual Meeting of the Association for Computational Linguistics,简称 ACL) 是关心 NLP 领域的研究者们观察动向的关键窗口。在2023年7月9-14日于加拿大多伦多举行的 ACL 2023 上,微软亚洲研究院有多篇针对基础模型的论文被 ACL 2023 收录,论文主题囊括大模型上下文学习机制...
A: 向ACL投稿有两种方法:1)通过ARR,这更像是期刊投稿的模式,支持修改和重投,但是需要更多的时间;2)直接提交,更快速,但是你不能重新提交或者投稿正在被其他会议审阅的论文。 Q: 如果被本届大会拒稿,我可以把论文再投稿到ARR吗? A: 一篇论文不会同时在ARR和ACL大会上...
ACL 2023 于 5 月 2 日公布了论文接收结果。中国科学院信息工程研究所第二研究室、第三研究室有 14 篇论文被 ACL 2023 录用。 第61 届 ACL(Annual Meeting of the Association for Computational Linguistics)计划于 2023 年 7 月 9 日 - 7 月 14 日在加拿大多伦多召开。ACL 年会是计算语言学和自然语言处...
2020 Best Paper Runner-Up,TrustNLP Best Paper Award。他多次担任NLP和ML领域顶级会议审稿人,Area Chair (ACL2023; EMNLP 2023),多次参与组织workshop和tutorials。他目前的研究兴趣在将大语言模型的分析和增强,以及如何利用常识知识构建通用的智能体。参考资料:https://github.com/yuchenlin/LLM-Blender ...
Location:Toronto, Canada All times are in EDT (UTC -4) Sunday, July 9, 2023 09:00–12:30TutorialMetropolitan West Everything you need to know about Multilingual LLMs: Towards fair, performant and reliable models for languages of the world ...
参考、详细的公式部分可以看这篇解读:ACL-2023 文章阅读 Learning In-context Learning for Named Entity Recognition 数据集 四个数据集 这四个数据集在自然语言处理(NLP)和命名实体识别(NER)任务中非常著名,它们分别来源于不同的领域,具有各自的特点和挑战。
2023年计算语言学协会年会(ACL 2023)涵盖了26个领域,展现了当前计算语言学和自然语言处理研究的多维度发展。每个领域通过一组关键字来描绘其潜在的子领域,这些子领域并非互斥,而是描述了最受关注的领域,旨在为相关研究提供更多思路。具体包括以下子领域:(一)计算社会科学和文化分析(Computational ...
而在自然语言处理领域,LLM-Blender这一集成学习框架近期备受关注。本文将介绍一种名为AI2USC开源LLM-Blender的新型集成学习框架,并对其在ACL2023的比赛中取得的成果进行探讨。LLM-Blender框架简介 1、框架概述 LLM-Blender是由AI2(AllenInstituteforArtificialIntelligence)和USC(UniversityofSouthernCalifornia)共同研发的...