3. GMM+HMM大法解決語音識別
我們獲得observation是語音waveform, 以下是一個詞識別全過程:
1)將waveform切成等長frames,對每個frame提取特征(e.g. MFCC),
2)對每個frame的特征跑GMM,得到每個frame(o_i)屬于每個狀態(tài)的概率b_state(o_i)
fig6. complete process from speech frames to a state sequence
3)根據每個單詞的HMM狀態(tài)轉移概率a計算每個狀態(tài)sequence生成該frame的概率; 哪個詞的HMM 序列跑出來概率最大,就判斷這段語音屬于該詞
宏觀圖:
fig7. Speech recognition, a big framework
好了,上面說了怎么做識別。那么我們怎樣訓練這個模型以得到每個GMM的參數和HMM的轉移概率什么的呢?
?、賂raining the params of GMM
GMM參數:高斯分布參數:
從上面fig4下面的公式我們已經可以看出來想求參數必須要知道P(j|x),即,x屬于第j個高斯的概率。怎么求捏?
fig8. bayesian formula of P( j | x )
根據上圖 P(j | x), 我們需要求P(x|j)和P(j)去估計P(j|x)。
這里由于P(x|j)和P(j)都不知道,需要用EM算法迭代估計以最大化P(x) = P(x1)*p(x2)*.。.*P(xn):
A. 初始化(可以用kmeans)得到P(j)
B. 迭代
E(estimate)-step: 根據當前參數 (means, variances, mixing parameters)估計P(j|x)
M(maximization)-step: 根據當前P(j|x) 計算GMM參數(根據fig4 下面的公式:)
?其中
?、赥raining the params of HMM
前面已經有了GMM的training過程。在這一步,我們的目標是:從observation序列中估計HMM參數λ;
假設狀態(tài)->observation服從單核高斯概率分布:
則λ由兩部分組成:
HMM訓練過程:迭代
E(estimate)-step: 給定observation序列,估計時刻t處于狀態(tài)sj的概率
M(maximization)-step: 根據重新估計HMM參數aij.
其中,
E-step: 給定observation序列,估計時刻t處于狀態(tài)sj的概率
為了估計, 定義: t時刻處于狀態(tài)sj的話,t時刻未來observation的概率。即
這個可以遞歸計算:β_t(si)=從狀態(tài) si 轉移到其他狀態(tài) sj 的概率aij * 狀態(tài) i 下觀測到x_{t+1}的概率bi(x_{t+1}) * t時刻處于狀態(tài)sj的話{t+1}后observation概率β_{t+1}(sj)
即:
定義剛才的為state occupation probability,表示給定observation序列,時刻t處于狀態(tài)sj的概率P(S(t)=sj | X,λ) 。根據貝葉斯公式p(A|B,C) = P(A,B|C)/P(B|C),有:
由于分子p(A,B|C)為
其中,αt(sj)表示HMM在時刻t處于狀態(tài)j,且observation = {x1,。。.,xt}的概率;
?。?t時刻處于狀態(tài)sj的話,t時刻未來observation的概率;
且
finally, 帶入的定義式有:
好,終于搞定!對應上面的E-step目標,只要給定了observation和當前HMM參數 λ,我們就可以估計了對吧 (*^__^*)
M-step:根據重新估計HMM參數λ:
對于λ中高斯參數部分,和GMM的M-step是一樣一樣的(只不過這里寫成向量形式):
對于λ中的狀態(tài)轉移概率aij, 定義C(Si->Sj)為從狀態(tài)Si轉到Sj的次數,有
實際計算時,定義每一時刻的轉移概率為時刻t從si->sj的概率:
那么就有:
把HMM的EM迭代過程和要求的參數寫專業(yè)點,就是這樣的:
評論