HMM-GMM(Hidden Markov Model - Gaussian Mixture Model)是语音识别中的经典模型之一。它结合了隐马尔可夫模型(HMM)和高斯混合模型(GMM)的优点,用于建模语音信号的时间序列特性和观测值的概率分布。 原理 隐马尔可夫模型(HMM) 隐马尔可夫模型(HMM, Hidden Markov Model)是一种统计模型,用于描述一个系统通过一系列隐状...
说回声学模型,MFA沿用Kaldi的GMM-HMM声学模型架构,训练声学模型步骤如下: (1)单音Monophone GMM模型先训练,进行第一次对齐; (2)三音Triphone GMM模型,对音素周围context考虑在内去训练,进行第二次对齐; (3)Speaker Adaption,去学习每个说话人的声学特征转换,以便模型更贴合现有数据集。 图:GMM-HMM模型在语音上的...
一方面,一类的样本被聚到一类;另一方面,在说话人识别的任务中,一般会对每一个说话人建立一个GMM模型,以此来拟合说话人的MFCC特征在空间上的分布,用GMM做分类的过程,就是通过下面的贝叶斯公式,计算在某个模型下,输入的语音的属于某个说话人的概率。 p(\lambda_{i}|spk)=p(spk,\lambda_{i})/p(spk)=p(sp...
语音识别任务有些特殊,比如语音识别中,标注只是针对整段音频的,而不是针对每一帧;语音识别是针对每个音素都建立一个HMM模型,而不是所有音素用一个HMM模型描述。 当时为了弄懂HMM-GMM,看了不少资料,但感觉都不适合很初级的学习者。于是就萌生了写一个通俗易懂版的HMM-GMM教程,从一个音频实例说起,给大家一个感性...
总结一下,GMM 用于对音素所对应的音频特征分布进行建模,HMM 则用于音素转移和音素对应输出音频特征之间关系的建模。 HMM 即为隐马尔可夫模型(Hidden Markov model,HMM) HMM 脱胎于马尔可夫链,马尔可夫链表示的是一个系统中,从一个状态转移到另一个状态的所有可能性。但因为在实际应用过程中,并不是所有状态都是可...
各种组合和变化也是层出不穷,而随着深度学习的兴起,使用了接近30年的语音识别声学模型HMM(隐马尔科夫模型)逐渐被DNN(深度神经网络)所替代,模型精度也有了突飞猛进的变化,其中声学模型模型结构经历了从经典的GMM-HMM,到DNN-HMM,再到DNN+CTC的转变,本文列出了其中的常见模型,权当是一篇导读性质的文章,供大家学习时...
GMM(高斯混合模型)的概念在于通过多个高斯分布来拟合复杂数据集,解决单一高斯分布无法精确拟合数据的问题。理想情况下,数据可能服从多个高斯分布,每个分布描述数据集中的一部分。一个高斯分布的数学表达式为:\(p(x|\mu,\sigma^2)\),当向量\(x\)时,方差\(\sigma^2\)变为协方差矩阵\(\Sigma\...
HMM-GMM架构 模型自适应:由于各地口音、采集设备、环境噪声等音素的差异,已训练过的GMM-HMM很可能和新领域的测试数据不匹配,导致识别效果变差,需要做自适应训练。 MAP(最大后验概率估计):算法本质是重新训练一次,并且平衡原有模型参数和自适应数据的估计。
1.HMM中状态数 2.初始概率(实践中一般令其恒等于1) 3.转移概率(该项对识别结果影响很小,所以设为固定值,不在训练中更新) 4.每个状态的概率分布函数(一个HMM状态下一个帧的特征的PDF,本节的PDF是GMM) 基于HMM的声学模型主要包含的信息是:状态的定义、各状态的观察概率分布,本文为GMM,因此声学模型也叫GMM-...
【摘要】 模型的训练是输入特征到音素的状态的训练,即我们并不知道哪一帧输入特征对应哪个音素的哪一个状态。训练的目的就是找到帧对应状态的情况,并更新状态的gmm参数。把每一帧都归到某个状态上,本质上是进行聚类,是无监督训练。单音素GMM-HMM模型的训练通过Viterbi训练(嵌入式训练),把“S IH K S”对应的GMM...