机器翻译主要用到的是seq2seq模型,这种模型通常由encoder-decoder组成,能够实现many-to-many的映射,符合翻译任务中输入与输出句子长度不同的情况。 encoder-decoder seq2seq 训练 很明显,可以将编码器与解码器中的那些单元置换为RNN/GRU/LSTM单元,编码器提取待翻译句子的特征,通过隐藏状态送入解码器,解码器每个单元的...
Seq2Seq(强调目的)不特指具体方法,满足「输入序列、输出序列」的目的,都可以统称为 Seq2Seq 模型。 而Seq2Seq 使用的具体方法基本都属于Encoder-Decoder 模型(强调方法)的范畴。 总结一下的话: Seq2Seq 属于 Encoder-Decoder 的大范畴 Seq2Seq 更强调目的,Encoder-Decoder 更强调方法 Encoder-Decoder 有哪些应用?
「Seq2Seq」和「Encoder-Decoder」的关系 Seq2Seq(强调目的)不特指具体方法,满足「输入序列、输出序列」的目的,都可以统称为 Seq2Seq 模型。 而Seq2Seq 使用的具体方法基本都属于Encoder-Decoder 模型(强调方法)的范畴。 总结一下的话: Seq2Seq 属于 Encoder-Decoder 的大范畴 Seq2Seq 更强调目的,Encoder-Decod...
Google 发表的用Seq2Seq做机器翻译的论文《Sequence to Sequence Learning with Neural Networks》 语音识别(音频- 文本) 语音识别也有很强的序列特征,比较适合 Encoder-Decoder 模型。 Google 发表的使用Seq2Seq做语音识别的论文《A Comparison of Sequence-to-Sequence Models for Speech Recognition》 图像描述生成(...