HMM的理论基础
一、 HMM定义
1. N:模型中状态的数目,记t时刻Markov链所处的状态为文档来自于网络搜索
2. M:每个状态对应的可能的观察数目,记t时刻观察到的观察值为个人收集整理 勿做商业用途
3. :初始状态概率矢量,,,个人收集整理 勿做商业用途
4. A:状态转移概率矩阵,,,文档来自于网络搜索
5. B:观察值概率矩阵(适用于离散HMM),,,;对于连续分布的HMM,记t时刻的观察值概率为文档来自于网络搜索
一个离散型的HMM模型可以简约的记为。资料个人收集整理,勿做商业用途
二、关于语音识别的HMM的三个基本问题个人收集整理 勿做商业用途
1. 已知观察序列和模型参数,如何有效的计算。个人收集整理 勿做商业用途
a. 直接计算文档收集自网络,仅用于个人学习
2-1
当N=5,T=100时大概需进行次乘法!文档来自于网络搜索
b. 前向算法资料个人收集整理,勿做商业用途
定义t时刻的前向变量(forward variable),可以通过迭代的方法来计算各个时刻的前向变量:资料个人收集整理,勿做商业用途
1) 初始化(Initialization)个人收集整理 勿做商业用途
当t=1时
2-2
2) 递归(Induction)个人收集整理 勿做商业用途
当时
即: 2-3文档收集自网络,仅用于个人学习
3) 终结(Termination)资料个人收集整理,勿做商业用途
2-4
乘法次数大约为:N2T文档收集自网络,仅用于个人学习
c. 后向算法文档收集自网络,仅用于个人学习
定义t时刻的后向变量(backward variable),可以通过迭代的方法来计算各个时刻的后向变量:个人收集整理 勿做商业用途
1) 初始化(Initialization)文档收集自网络,仅用于个人学习
当t=T时
, 2-5文档来自于网络搜索
2) 递归(Induction)文档收集自网络,仅用于个人学习
当时
即:, 2-6文档来自于网络搜索
3) 终结(Termination)个人收集整理 勿做商业用途
2-7
乘法计算次数约为:N2T文档来自于网络搜索
2. 已知观察序列和模型参数,在最佳意义上确定一个状态序列。个人收集整理 勿做商业用途
定义一个后验概率变量(posteriori probability variable)个人收集整理 勿做商业用途
2-7
则最优序列可以通过, 2-7资料个人收集整理,勿做商业用途
求得。不过,这样求得的最优序列有些问题。如果,那么这个最优序列本身就不存在。这里讨论的最佳意义上的最优序列,是使最大化时的确定的状态序列。即,使最大化时确定的状态序列。个人收集整理 勿做商业用途
定义为t时刻沿一条路径,且,输出观察序列的最大概率,即: 2-8文档来自于网络搜索
下面介绍迭代计算的Viterbi算法:个人收集整理 勿做商业用途
1) 初始化(Initialization)文档收集自网络,仅用于个人学习
,
回溯变量:,
2) 递归(Induction)个人收集整理 勿做商业用途
即: 2-8文档收集自网络,仅用于个人学习
2-9
3) 终结(Termination)个人收集整理 勿做商业用途
2-10
2-11
4) 回溯状态序列文档来自于网络搜索
, 2-12文档来自于网络搜索
3. 已知观察序列和模型参数,如何调整模型参数使最大。个人收集整理 勿做商业用途
给定训练序列和模型,时刻Markov链处在状态和时刻处在状态的概率定义如下资料个人收集整理,勿做商业用途
3-1
给定训练序列和模型,时刻Markov链处在状态的概率定义如下资料个人收集整理,勿做商业用途
3-2
给定训练序列和模型,从状态转移出去的概率为资料个人收集整理,勿做商业用途
定义3.
语音识别HTK代码学习手册 来自淘豆网m.daumloan.com转载请标明出处.