共指消解模型是指用于解决这一问题的算法或方法。常见的共指消解模型主要有以下几类: 1、基于规则的方法:这类方法主要依靠预先设计的规则来识别和处理共指关系。例如,可以根据实体和指称之间的关系、实体和实体之间的距离等因素来识别共指关系。然而,这类方法在面对复杂和多样化的语言现象时,效果可能有限。 2、基于统计学习的
许多共指消解模型,如Huggingface,在检测下指时存在严重问题,因为这是一种相当罕见的现象。 一方面,我们可能对解决这种问题的不寻常例子不感兴趣。另一方面,根据文本,如果我们忽视他们,我们可能会失去更多或更少的信息。 AllenNLP检测到了下指,但是由于它将结果中的第一个对象作为它的头,所以它会导致进一步的错误。这...
为了缓解传统的处理方式带来的问题,本文尝试将原本的共指消解问题转化为片段预测任务,也就是利用QA 的方式来训练模型学习多个 mention 之间的指代关系 首先选出可能的指代 mention,再依据该 mention 的上下文信息来生成问题,模型再尝试从文档中抽取片段以回答这个问题,则此时整个针对于共指消解的问题可以转化为一个针对...
通过这种方法,我们能够在共指消解标准数据集CoNLL2012和GAP上取得当前最优结果,分别达到了83.1和87.5的F1值,比之前的最优结果分别提高了3.5与2.5。 基于QA的文段抽取式共指消解模型 下图是所提出模型的示意图。该模型由一个指称提取模块和一个指称链接模块组成,前者从原始文本中提取出所有可能的指称,后者将指称聚类...
在本文,我们提出了一个基于问答框架的共指消解模型,通过指称抽取——指称链接两个步骤,完成对共指词的聚类。这种方法能够在两个标准数据集上实现当前最优效果,并通过一系列分析实验证明“问答”本身具体至关重要的作用。 进一步讨论:问答模式是否有益 包含本文在内,我们已经介绍了三篇基于“问答”框架的文章了(前两...
在本文中,我们提出一种基于问答(QA)的共指消解(coreference resolution)模型,将每个候选指称(mention)所在句子作为问题,然后模型去抽取文本中所有和该指称共指的文段(span)。这种方法避免了传统共指消解模型的若干问题。 我们提出的模型在数据集CoNLL2012、GAP上取得当前最优结果,分别为83.1和87.5的F1值,大幅度超过之...
NLP基本任务:词性标注、命名实体的识别、共指消解、依存句法、中文自动分词; 基础应用:搜索引擎:匹配query和document相似度(文本匹配)、返回相关广告、知识图谱;智能音箱;机器翻译;情感分类和意见挖掘;与社会科学交叉(Google Book N-gram:链接); NLP基本问题:词的表示问题 ...