前辈您好, 关于attention_rescoring中的reverse_weight, 如果这个值大于0.0, wenet会有一个判断`assert hasattr(self.decoder, 'right_decoder')`, 注释说这意味着decoder是一个bitransformer decoder. 但我将其设置为任何大于零的值(0.5), 这个assert都会报错. 请问您知道这其中的缘由吗? 2023-12-14 回复...
WeNet中注意力重打分(attention rescoring decoding) 我们知道CTC是非自回归,而像transformer中解码是自回归的,所以transformer很大的一个缺陷就是解码速度慢。在最近几年CTC和注意力机制联合训练得到的性能效果得到极大的提升,在训练过程中主要的操作就是将encoder的输出分别作为decoder的输入和CTC的输入,通过...
The traditional hybrid deep neural network (DNN)–hidden Markov model (HMM) system and attention-based encoder–decoder (AED) model are both commonly used automatic speech recognition (ASR) approaches with distinct characteristics and advantages. While hybrid systems are per-frame-based and highly mod...