[1]Neural Text Summarization: A Critical Evaluation(Kryscinski et al., EMNLP-IJCNLP 2019) [2]SummEval: Re-evaluating Summarization Evaluation(Fabbri et al., TACL 2021) [3]News Summarization and Evaluation in the Era of GPT-3(Goyal et al., arXiv 2022) [4]On Faithfulness and Factuality i...
Neural Abstractive Text Summarization with Sequence-to-Sequence Models [Tian Shi et al. 2018] Convolutional Sequence to Sequence Learning [Jonas Gehring et.al. ICML 17] Don’t Give Me the Details, Just the Summary! Topic-Aware Convolutional Neural Networks for Extreme Summarization [Shashi Narayan ...
[5] SimCLS: A Simple Framework for Contrastive Learning of Abstractive Summarization:https://arxiv...
attention model也是借鉴于soft alignment,对于文本摘要这个问题来说,套用seq2seq只能解决headlines generation的问题,面对传统的single document summarization和multi document summarization任务便束手无策了,因为输入部分的规模远大于输出部分的话,seq2seq的效果不会很好,因此说abstractive summarization...
为了提取句子,我们的提取模型是建立在编码器的顶层,通过叠加一些句间Transformer层来获取篇章级特征。而抽象模型提出了一个编码器-解码器结构,结合相同的预训练bert编码器(使用随机初始化的Transformer解码器)。论文设计了一个新的训练流程,能够分开编码器和解码器的优化步骤来适应编码器和解码器,因为前者是预训练的,...
在这段时间我反思了一下之前写的东西,基本是最近用了什么、看到什么就写什么,感觉系统性比较差。后面我打算少写一些零散话题,多总结一些更有体系的内容。第一个小专题我想总结一下我最近关注比较多的领域,文本生成。文本生成领域很广泛,我主要会聚焦在文本摘要(Text Summarization)和数据驱动生成(Data2Text)。
Applying pre trained facebook/bart-large-cnn for text summarization in python on a dataframe column 0 Summarization with Huggingface: How to generate one word at a time? 3 How to split input text into equal size of tokens, not character length, and then concatenate the summarization results...
文本摘要(Text Summarization) 命名实体识别(Named Entity Recognition) 问答系统(Question-Answering Systems) 6. 结语 ELMo无疑是NLP的重大进步,并且将保持趋势。鉴于NLP研究的进展速度非常快,最近几个月还出现了其他新的最先进的词嵌入...
Explore and run machine learning code with Kaggle Notebooks | Using data from No attached data sources
对于使用神经网络的方法,没有大规模的数据是很难得到理想效果的,也看到一些作者把 text-summarization 任务的数据集也添加进训练中,崔菓儿认为也是不太恰当的。 除此之外,也有人把主题模型和神经网络结合起来做关键短语生成 Topic-Aware Neural Keyphrase Generation for Social Media Language。这个是腾讯的工作,其中的...