以及 Xiang Ren论文地址:https://arxiv.org/pdf/2305.01879.pdf论文 31:The Mechanical Bard: An Interpretable Machine Learning Approach to Shakespearean Sonnet Generation机构:杜克大学论文作者:Edwin Agnew, Michelle Qiu, Lily Zhu, Sam Wiseman 以及 Cynthia Rudin论文地址:https://aclanthology.org/2023....
再现奖:Do CoNLL-2003 Named Entity Taggers Still Work Well in 2023?作者:Shuheng Liu, Alan Ritter 机构:佐治亚理工学院 论文地址:https://arxiv.org/pdf/2212.09747.pdf 命名实体识别(NER)是自然语言处理中一项重要的、经过深入研究的任务。近20年前发布的经典CoNLL-2003英语数据集通常用于训练和评估命名...
论文地址:https://aclanthology.org/2023.acl-long.730.pdf 论文13:Faithful Low-Resource Data-to-Text Generation through Cycle Training 机构:TAMU、亚马逊 论文作者:Zhuoer Wang, Marcus Collins, Nikhita Vedula, Simone Filice, Shervin Malmasi 以及 Oleg Rokhlenko 论文地址:https://arxiv.org/pdf/2305.14...
国际计算语言学年会(Annual Meeting of the Association for Computational Linguistics,简称ACL)是自然语言处理(NLP)领域的顶级国际会议,ACL 2023 将于2023年7月9-14日在加拿大多伦多举行。近日,ACL 2023公布了论文入选结果,网易云商AI技术组与上海交通大学林洲汉老师研究组关于Transformer方向的论文被大会Findings录...
【新智元导读】ACL 2023大奖新鲜出炉了!本届大会,共颁发了3篇最佳论文、39篇杰出论文,还首次设立了特别奖。 ACL2023最佳论文奖来了! 今年,主办方为了能让更多优秀的研究入围,大幅增加了获奖论文的数量,还实施了全新的奖励政策。 据统计,获奖论文占投稿总数的1.5%-2.5%。
计算语言学顶级国际会议ACL 2023即将在2023年1月20日(UTC-12)正式截稿。官方给出了常见问题的解答,以帮助作者顺利地准备论文投稿。 原文:ACL 2023 Frequently Asked Questions 作者:ACL 2023 Program Chairs 地址:https://2023.a...
ACL 2023落幕,Brain.ai斩获杰出论文奖 近日,第61届计算语言学协会年会(ACL2023)在加拿大多伦多落幕。ACL全称是AnnualMeetingoftheAssociationforComputationalLinguistics,由计算语言学协会主办,GoogleScholarh5-index为169,是自然语言处理领域最具影响力的国际学术会议。今年ACL官方共收到全球约5000篇投稿,并在其中评选...
ACL 2023 于 5 月 2 日公布了论文接收结果。中国科学院信息工程研究所第二研究室、第三研究室有 14 篇论文被 ACL 2023 录用。 第61 届 ACL(Annual Meeting of the Association for Computational Linguistics)计划于 2023 年 7 月 9 日 - 7 月 14 日在加拿大多伦多召开。ACL 年会是计算语言学和自然语言处...
近日,阿里云机器学习平台PAI与华南理工大学合作(阿里云与华南理工大学联合培养项目)在自然语言处理顶级会议ACL2023上发表了具有高效推理速度的中文领域文图生成扩散模型和工具链Rapid Diffusion。它是面向中文特定领域的文图生成模型,采用与Stable Diffusion一样的模型结构,在给定中文文本的情况下可以实现快速的文图生成工作,...
我们很高兴向大家分享我们在 ACL 2023 上发表的关于大模型、parameter-efficient transfer learning 方向的最新工作。 论文标题: One Network, Many Masks: Towards More Parameter-Efficient Transfer Learning 论文链接: https://arxiv.org/pdf/2305.17682.pdf ...