RNNTLoss(blank: int = - 1, clamp: float = - 1.0, reduction: str = 'mean') 参数: blank(int,可选的) -空白标签(默认:-1) clamp(float,可选的) -渐变夹(默认值:-1) reduction(string,可选的) -指定要应用于输出的缩减:'none' | 'mean' | 'sum'。 (默认:'mean') 计算RNN 换能器损失...
通过硬归一化(hard normalization)操作进行特征归一化的直接方法会导致非凸形式。相反,Ring loss应用软归一化,其中它逐渐学会将范数约束到缩放的单位圆,同时保持凸性,从而获得更鲁棒的特征。将Ring loss应用于大规模人脸识别问题,达到了最好的效果。 Ring loss将特征限制到缩放后的单位圆上,同时能保持凸性,来得到更稳...
https://github.com/1ytic/warp-rnnt/tree/master/pytorch_binding
应对时间对齐问题,K2 给出了基于 delay penalty 的 RNN-T loss。实验结果来看,在流式推理中加入 delay penalty 能缩短100~200ms 左右的延迟,距离 CorentinJ/librispeech-alignments 还差100~200ms ,对于 RNN-T 这种无需 align 信息的 loss 来说,这个结果相当不错了。