这是两篇系列文章中的第一篇。在 2018 年的 Indaba 深度学习大会 上,Herman Kamper 和我组织了一场自然语言处理研讨会,整个会议的幻灯片可以在 这里(https://www.slideshare.net/SebastianRuder/frontiers-of-natural-language-processing)下载。本文将讨论用神经网络方法解决 NLP 问题的主要进展,而第二篇文章将主要...
这是两篇系列文章中的第一篇。在 2018 年的 Indaba深度学习大会 上,Herman Kamper 和我组织了一场自然语言处理研讨会,整个会议的幻灯片可以在 这里(https://www.slideshare.net/SebastianRuder/frontiers-of-natural-language-processing)下载。本文将讨论用神经网络方法解决 NLP 问题的主要进展,而第二篇文章将主要...
这是两篇系列文章中的第一篇。在 2018 年的 Indaba 深度学习大会 上,Herman Kamper 和我组织了一场自然语言处理研讨会,整个会议的幻灯片可以在 这里(https://www.slideshare.net/SebastianRuder/frontiers-of-natural-language-processing)下载。本文将讨论用神经网络方法解决 NLP 问题的主要进展,而第二篇文章将主要...
ELMo实际上更进一步,训练了一个双向的LSTM——这样它的语言模型不仅能预测下一个词,还有预测上一个词。 [Great slides](https://www.slideshare.net/shuntaroy/a-review-of-deep-contextualized-word-representations-peters-2018) on ELMo ELMo通过将隐藏状态(和初始嵌入)以某种方式(拼接之后加权求和)组合在一起,...
Slideshare:http://www.slideshare.net/ChristopherMoody3/word2vec-lda-and-introducing-a-new-hybrid-algorithm-lda2vec-57135994 Python:https://github.com/cemoody/lda2vec 将LDA与word2vec相结合,LDA是我比较在意的研究方向,这个模型很早提出,不过应用地倒是不多。
Slideshare:http://www.slideshare.net/ChristopherMoody3/word2vec-lda-and-introducing-a-new-hybrid-algorithm-lda2vec-57135994 Python:https://github.com/cemoody/lda2vec 将LDA与word2vec相结合,LDA是我比较在意的研究方向,这个模型很早提出,不过应用地倒是不多。
http://www.slideshare.net/Textkernel/practical-deep-learning-for-nlp Sentiment dataset: 1.6M: https://docs.google.com/uc?id=0B04GJPshIjmPRnZManQwWEdTZjg&export=download quandl: https://github.com/kszela24/options-daily stocktwit: http://stocktwits.com/symbol/FINL https://github.com/jssan...
https://arxiv.org/pdf/1611.06792.pdf : Neural Information Retrieval: A Literature Review http://www.slideshare.net/BhaskarMitra3/neural-text-embeddings-for-information-retrieval-wsdm-2017 : WSDM'17 Tut. on Deep Learning for IRWord Embeddings related articleshttps...
这是我放在一起的一些(旧)示例代码,并附有现代化代码:package opennlp; import opennlp.tools....
[Great slides](https://www.slideshare.net/shuntaroy/a-review-of-deep-contextualized-word-representations-peters-2018) on ELMo ELMo通过将隐藏状态(和初始嵌入)以某种方式(拼接之后加权求和)组合在一起,提出了语境化的词嵌入。 五、ULM-FiT:搞懂NLP中的迁移学习 ...