近期,实验室和腾讯天籁实验室针对单通道超宽带语音增强任务提出了S-DCCRN模型,其相关论文" S-DCCRN: SUPER WIDE BAND DCCRN WITH LEARNABLE COMPLEX FEATURE FOR SPEECH ENHANCEMENT "被语音研究顶级会议ICASSP2022接收。S-DCCRN是基于DCCRN的进一步改进,通过可学习频谱压缩,复数特征编码器、解码器以及级联的子带全带处理...
Spatial-DCCRN是基于S-DCCRN[3]的进一步改进,通过角度特征提取模块以及混合滤波器的帮助下,Spatial-DCCRN在3D语音增强L3DAS22 challenge数据集[6]上指标超越了频域模型DCCRN、EabNet[7]、时域模型FasNet[8],在多通道实录会议数据集ConferencingSpeech2021[9]上客观指标超过了竞赛第一名MIMO-UNet[10],现对该论文进行...
论文精读:DCCRN 不破勝光 One tiao salty fish49 人赞同了该文章 首先一如既往地是我们的约定环节,因为笔者不是语音出身,所以有很多翻译的尚不准确的地方,还望读者见谅,酌情理解: TF:Time-Frequency,时频(域/特性/方法等); DCCRN:Deep Complex Convolution Recurrent Network,深度复卷积循环网络; CRN/R-CNN:...
DCCRN:用于相位感知语音增强的深度复卷积递归网络 论文实现代码: huyanxin/DeepComplexCRN (github.com)github.com/huyanxin/DeepComplexCRN maggie0830/DCCRN: implementation of "DCCRN-Deep Complex Convolution Recurrent Network for Phase-Aware Speech Enhancement" by pytorch (github.com)github.com/maggie...