https://arxiv.org/pdf/1607.01759v2.pdf 代码: https://github.com/facebookresearch/fastText Deep_NMT使用LSTM解决机器翻译问题 期刊日期 NLPS 2014 论文名称 Sequence to Sequence Learning with Neural Networks 描述 DNN可以在有大量标记训练集下表现很好,但是无法处理用于序列映射到序列。在本文中,我们提出了一...
这个列表最初是基于我多年前在Quora上发布的⼀个问题的答案:[所有NLP学⽣都应该阅读的最重要的研究论⽂是什么?]( -are-the-most-important-research-paper -which-all-NLP-students-should- definitread)。I thank all the people who contributed to the original post. 我感谢所有为原创⽂章做出贡献的...
Paper:https://www.aclweb.org/anthology/P19-1616.pdf Resource:https://github.com/wudapeng268/KBQA-Adapter [EMNLP2019] Leveraging Dependency Forest for Neural Medical Relation Extraction Paper:https://www.aclweb.org/anthology/D19-1020.pdf Resource:http://github.com/freesunshine/dep-forest-re [...
论文: https://arxiv.org/pdf/1810.04805.pdf 代码+模型: https://github.com/google-research/bert Language Models are Unsupervised Multitask Learners. Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei and Ilya Sutskever. Preprint. 论文: https://d4mucfpksywv.cloudfront.net/better-...
http://emnlp2014.org/papers/pdf/EMNLP2014162.pdf Char Embedding第一篇介绍字符嵌入的论文 期刊日期 EMNLP2015 论文名称 Compositional character models for open vocabulary word representation 描述 我们引入了一种通过使用双向 LSTM 组合字符来构建单词向量表示的模型。相对于每个词类型都有独立向量的传统词表示模型...
Transformer 的预训练模型:https://www.paperswithcode.com/paper/attention-is-all-you-need 研究论文:https://arxiv.org/abs/1706.03762 Google BERT GitHub 项目地址: https://github.com/google-research/bert 自Google 公布他们的结果以来,BERT 就一直在掀起波澜,然后 Google 开源了它背后的代码。我们可以讨论...
NLP research group, Columbia University - Responsible for creating BOLT ( interactive error handling for speech translation systems) and an un-named project to characterize laughter in dialogue. The Center or Language and Speech Processing, John Hopkins University - Recently in the news for developing...
论文地址:https://openreview.net/pdf?id=5k8F6UU39V 来源:ICLR 2021 论文代码:https://github.com/facebookresearch/GENRE 介绍:实体是我们表示和聚合知识的中心。例如,维基百科等百科全书是由实体构成的(例如,一篇维基百科文章)。检索给定查询的实体的能力是知识密集型任务(如实体链接和开放域问答)的基础。理解...
论文1:本文采用朴素贝叶斯的监督学习方法对IMDB评论进行分类。(https://arxiv.org/pdf/1305.6143.pdf)论文2:本文利用LDA的无监督学习方法来识别用户生成评论的观点和情感。本文在解决注释评论短缺的问题上表现突出。(http://www.cs.cmu.edu/~yohanj/research/papers/WSDM11.pdf)资料库:这是一个很好的包含相关...
http://cs.jhu.edu/~jason/papers/li+eisner.emnlp19.pdf 摘要:像ELMo和BERT这样的经过预训练的词嵌入包含丰富的句法和语义信息,从而让它们在各种任务上有最好的表现。研究者提出了一种非常快速的变分信息瓶颈(VIB)方法来非线性压缩这些嵌入,仅保留有助于判别解析器的信息。它们将嵌入的单词压缩为离散标签或连续...