如何理解隐马尔可夫模型 股票中的向后算法

& & & 隐马尔可夫模型的学习问题:给定一个输出序列O=O1O2...OT,如何调节模型&=(A,B,&)的参数,使得P(O|M)最大。
& & & 最大似然估计是一种解决方法,如果产生的状态序列为Q=q1q2...qT,根据最大似然估计,可以通过以下公式推算:
& & & & &i& = &(q1,si)
& & & & aij' = &Q中从状态qi转移到qj的次数/Q中从状态qi转移到另一状态(包括qj)的次数
& & & & & & &
& & & & bj(k)' = Q中从状态qj发出符号Vk的次数/&Q中到达状态qj的次数
& & & & & & & & &
& & & &(x,y)为克罗奈克函数,当x=y时,&(x,y)=1;否则,&(x,y)=0
& & & 但是注意,在实际中,状态Q=q1q2...qT是观察不到的(隐变量),因此上述的这种求法是有问题的。幸好希望最大化,可以用于含有隐变量的统计模型的参数最大似然估计。基本思想是初始时,随机的给模型参数赋值,但是要遵循模型对参数的限制,例如,从一个状态发出的所有状态转移概率之和为1,得到模型&0。然后根据&0中的具体值,带入下式,可以得到u1.依次往下迭代,直到收敛于最大似然估计值。这种迭代爬山算法可以局部使P(O|&)最大。称为Baum-Welch算法或前向后向算法。
& & & 给定HMM的参数&和观察序列O=O1O2...OT,在时间t位于状态si,在时间t+1位于状态sj的概率为&t(i,j)=P(qt=si,qt+1=sj|O,&),公式推导如下:
& & & & & & & &................(1)
& & & &给定HMM & 和序列O=O1O2...OT,在时间t位于状态si的概率为:.........(2)
& & & &这样求&的参数估计重新改写:
& & & & &i& = r1(i) ...........(3)
& & & & aij' = &Q中从状态qi转移到qj的次数/Q中从状态qi转移到另一状态(包括qj)的次数
& & & & & & &=&..........(4)
& & & & & & &
& & & & bj(k)' = Q中从状态qj发出符号Vk的次数/&Q中到达状态qj的次数
& & & & & & & & &=&..............(5)
前向后项算法:
& & &step1 初始化: 随机地给定参数 &i, aij, bj(k),使其满足条件:
& & & & & & & & & & & &
& & & & & & & & & & & &由此得到&0,令i=0
& & & step2 EM计算:
& & & & & & & & & &E步骤:根据(1)(2)式计算期望&t(i,j) 和&rt(i)
& & & & & & & & & &M步骤:根据期望&t(i,j) 和&rt(i),带入(3)(4)(5)重新得到&i, aij, bj(k),得到&i+1
& & & &step3 循环计算: i = i+1, 直到&i, aij, bj(k)收敛
阅读(...) 评论()如何用简单易懂的例子解释隐马尔可夫模型? - 知乎10782被浏览630077分享邀请回答3.5K258 条评论分享收藏感谢收起19832 条评论分享收藏感谢收起更多10 个回答被折叠()隐马尔可夫模型的前向算法(java实现),今天奉上
时间: 23:38:49
&&&& 阅读:208
&&&& 评论:
&&&& 收藏:0
标签:&&&&&& 隐马尔可夫模型的前向算法(手动实现),今天奉上,由于研究生期间,实现的时候没有多加注释,这里为了让更好的人进入自然语言处理领域,特此,将前向算法奉上,具体公式可参考52nlp的HMN系列博客。&&&&&& 参考了大部分网站公式和借鉴。在此表示感谢。&&&&& 后向算法和维特比算法,后续更新。&HMM类:&&1&package&.hmm.&&2&&&3&import&.hmm.bean.HMMH&&4&&&5&/**&&6&&*&实现了&HMM(隐马尔可夫模型,&Hidden&Markov&Models)的&前向(Forward),&后向(Backward),&&7&&*&前向-后向(Baum-Welch)算法&这里均计算对数概率(将乘法转换为加法)&&8&&*&&HMM五元素:λ=(N,&M,&A,&B,&pi)&&&9&&*&&N:隐藏状态数&hidden&states&&10&&*&&M:观测状态数&observed&states&&11&&*&&A:&状态转移矩阵&transition&matrix&&12&&*&&B:发射矩阵&emission&matrix&&13&&*&&pi:初始隐状态向量&initial&state&vector&14&&*&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&P(q_t|q_t-1)&15&&*&隐藏状态:&q1&——&q2&——&&……——&q_t-1——&q_t——&——&q_T&16&&*&&&&&&&&&&&&&&&&&&&&&&|&&&&&&&&&&&&&&&&&|&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&|&&&&&&&&&&&&&&&&&&|&&&&&&&&&&&&&&&&&&&&&&&&&&|&17&&*&&&&&&&&&&&&&&&&&&&&&&|&&&&&&&&&&&&&&&&&|&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&|&&&&&&&&&&&&&&&&&&|&&&&&&&&&&&&&&&&&&&&&&&&&&|&18&&*&&显示状态:O1&&&&&&&&&&&&O2&&&&&&&&&&&&&&&&&&&&&&&&&&&&&O_t-1&&&&&&&&O_t&&&&&&&&&&&&&&&&&&&&O_T&19&&*&&隐数目——N个;显数目——M个&20&&*/&21&public&class&HMM&{&22&&&&&/**&23&&&&&&*&隐藏状态名称列表——在获取最优隐藏状态序列时需要&24&&&&&&*&如enum&Box&{one,&two,&three};&//&隐藏状态(箱子编号)&25&&&&&&*/&26&&&&&public&String[]&&27&&&&&/**&28&&&&&&*&观察状态名称列表——在根据观测索引获取获取观测序列时需要&29&&&&&&*&enum&Color&{red,&yellow,&blue,&green};&//&观察状态(观测到的颜色值)&30&&&&&&*/&31&&&&&public&String[]&&32&&&&&&33&&&&&public&int&N;&34&&&&&/**&35&&&&&&*&&观测状态数&observed&states&36&&&&&&*&&观测状态名称叫syms&37&&&&&&*/&38&&&&&public&int&M;&39&&&&&/**&40&&&&&&*&隐藏状态转移矩阵&41&&&&&&*&logA[&i&][&j&]&=&log(P(&i&-&&j&))&表示从i状态转移到&j&状态的概率——取自然对数&42&&&&&&*/&43&&&&&public&double[][]&logA;&44&&&&&/**&45&&&&&&*&发射矩阵(混淆矩阵)&46&&&&&&*&logB[&i&][Ot]&=&log(P(emit&Ot&in&state&i))&表示状态&i&下发射出&Ot&的概率——Ot为第t时刻的显示序列单号&47&&&&&&*/&48&&&&&public&double[][]&logB;&49&&&&&/**&50&&&&&&*&初始状态概率分布——每个隐藏状态发生的概率&51&&&&&&*/&52&&&&&public&double[]&logPI;&53&&&&&&54&&&&&/**&55&&&&&&*&观察到的序列&56&&&&&&*/&57&&&&&//public&int[]&O;//如yellow&red&blue&yellow&green&这些在enum&Color&{red,yellow,blue,green&}的索引位置&58&&&&&&59&&&&&public&HMM(){}&60&&&&&&61&&&&&public&&HMM(int&N,&int&M){&62&&&&&&&&&this.N=N;&63&&&&&&&&&this.M=M;&64&&&&&&&&&this.logA=new&double[N][N];&65&&&&&&&&&this.logB=new&double[N][M];&66&&&&&&&&&this.logPI=new&double[N];&67&&&&&&&&&for(int&i=0;&i&N;&i++){&68&&&&&&&&&&&&&for(int&j=0;&j&N;&j++){&69&&&&&&&&&&&&&&&&&this.logA[&i&][&j&]&=&Double.NEGATIVE_INFINITY;&70&&&&&&&&&&&&&}&71&&&&&&&&&&&&&for(int&j=0;&j&M;&j++){&72&&&&&&&&&&&&&&&&&this.logB[&i&][&j&]=Double.NEGATIVE_INFINITY;&73&&&&&&&&&&&&&}&74&&&&&&&&&&&&&this.logPI[&i&]&=&Double.NEGATIVE_INFINITY;&75&&&&&&&&&}&76&&&&&}&77&&&&&&78&&&&&/**&79&&&&&&*&(已经有具体HMM的各个参数情况下调用)&80&&&&&&*&@param&state隐藏状态名称&81&&&&&&*&&&&&&&&&&&&enum&Box&{one,two,three&}&82&&&&&&*&&@param&syms&观测状态名称&83&&&&&&*&&&&&&&&&&&&enum&Color&{red,yellow,blue,green}&84&&&&&&*&@param&A&85&&&&&&*&&&&&&&&&&&&隐藏状态的转移矩阵&86&&&&&&*&&&&&&&&&&&&&&&&&&&&&&&&&1&&&&&&&&&&&&&2&&&&&&&&&&&3&87&&&&&&*&&&&&&&&&&&&&&&&&&&&&&one&&&&&&&&two&&&&&&&&three&88&&&&&&*&&&&&&&&&&&one&&{0.500,&&&0.375,&&&0.125}&89&&&&&&*&&&&&&&&&&&two&&{0.250,&&&0.125,&&&0.625},&90&&&&&&*&&&&&&&&&&&three{0.250,&&&0.375,&&&0.375}&91&&&&&&*&@param&B&从隐藏状态——观察状态的发射矩阵(混淆矩阵)&92&&&&&&*&&&&&&&&&&&&&&&&&&&&&&&&&&&&0&&&&&&&&1&&&&&&&&&2&&&&&&&&3&93&&&&&&*&&&&&&&&&&&&&&&&&&&&&&&&&&red&yellow&blue&&green&94&&&&&&*&&&&&&&&&&&&one&&&&&{0.60,&&0.20,&&0.15,&&0.05},&95&&&&&&*&&&&&&&&&&&&two&&&&&{0.25,&&0.25,&&0.25,&&0.25},&96&&&&&&*&&&&&&&&&&&&three&&{0.05,&&0.10,&&0.35,&&0.50}&97&&&&&&*/&98&&&&&public&HMM(double[][]&A,&double[][]&B,&double[]&PI){&99&&&&&&&&&this.N=A.100&&&&&&&&&this.M=B[0].101&&&&&&&&&this.logA=new&double[N][N];102&&&&&&&&&this.logB=new&double[N][M];103&&&&&&&&&this.logPI=new&double[N];104&&&&&&&&&for(int&i=0;&i&N;&i++){105&&&&&&&&&&&&&for(int&j=0;&j&N;&j++){106&&&&&&&&&&&&&&&&&this.logA[&i&][&j&]&=&Math.log(&A[&i&][&j&]&);107&&&&&&&&&&&&&}108&&&&&&&&&&&&&for(int&j=0;&j&M;&j++){109&&&&&&&&&&&&&&&&&this.logB[&i&][&j&]=Math.log(&B[&i&][&j&]&);110&&&&&&&&&&&&&}111&&&&&&&&&&&&&this.logPI[&i&]&=&Math.log(&PI[&i&]&);112&&&&&&&&&}113&&&&&}114&&&&&115&&&&&/**116&&&&&&*&打印转移矩阵117&&&&&&*/118&&&&&public&void&printA()&{119&&&&&&&&&System.out.println("转移矩阵:");120&&&&&&&&&for&(int&i&=&1;&i&&&N;&i++)&{121&&&&&&&&&&&&&for&(int&j&=&1;&j&&&N;&j++){122&&&&&&&&&&&&&&&&&System.out.print(HMMHelper.fmtlog(logA[i][j]));123&&&&&&&&&&&&&}124&&&&&&&&&&&&&System.out.println();125&&&&&&&&&}126&&&&&}127&128&&&&&/**129&&&&&&*&打印发射矩阵130&&&&&&*/131&&&&&public&void&printB()&{132&&&&&&&&&System.out.println("发射矩阵:");133&&&&&&&&&for&(int&i&=&1;&i&&&N;&i++)&{134&&&&&&&&&&&&&for&(int&j&=&1;&j&&&N;&j++){135&&&&&&&&&&&&&&&&&System.out.print(HMMHelper.fmtlog(logB[i][j]));136&&&&&&&&&&&&&}137&&&&&&&&&&&&&System.out.println();138&&&&&&&&&}139&&&&&}140&&&&&141&&&&&142&}View Code&Forward类:&&1&package&.hmm.&2&&3&import&.hmm.bean.HMMH&4&import&.util.TCMM&5&&6&/**&7&&*&前向算法:&8&&*&目的:&9&&*&1、先计算前向变量矩阵10&&*&2、再用前向变量矩阵&来&计算一个观测序列的概率11&&*&@author&aool12&&*/13&public&class&Forward&extends&HMM{14&&&&&public&int[]&O;//观测序列observe//如yellow&red&blue&yellow&green&这些在enum&Color&{red,yellow,blue,green&}的索引位置15&16&&&&&public&double[][]&&//前向变量矩阵17&&&&&18&&&&&public&Forward(double[][]&A,&double[][]&B,&double[]&PI,&int[]&O){19&&&&&&&&&super(A,&B,&PI);20&&&&&&&&&this.O=O;21&&&&&}22&&&&&23&&&&&/**24&&&&&&*&【计算前向变量矩阵】25&&&&&&*&在时间&t&的条件下,hmm输出观察序列O(1)O(2)...O(t)且该时间t下的隐藏状态为s_i(第i个隐藏状态,共N种隐藏状态)的概率26&&&&&&*&alpha[&t&][&i&]&=&alpha_t(&i&)&=&log(P(O(1)O(2)...O(t),&q_t=s_i&|&λ))27&&&&&&*/28&&&&&public&void&CalculateForeMatrix(){29&&&&&&&&&int&T&=&O.30&&&&&&&&&alpha&=&new&double[&T&][&N&];//每一时刻(每行)上&可能出现的多个状态的发生的前向变量概率31&&&&&&&&&//1、初始化,计算初始时刻(直觉上的第1时刻)所有状态的局部概率32&&&&&&&&&for&(int&i&=&0;&i&&&N&;&i++){33&&&&&&&&&&&&&alpha[&0&][&i&]&=&logPI[&i&]&+&logB[&i&][&O[&0&]&];34&&&&&&&&&}35&&&&&&&&&//2、归纳,递归计算每个时间点的局部概率36&&&&&&&&&for&(int&t&=&1;&t&&&T;&t++){//从(直觉上的第2时刻)即t=1(下标从0开始)观测值算起——第时间t下开始循环37&&&&&&&&&&&&&for&(int&i&=&0;&i&&&N;&i++)&{//在时间t下,对于每个状态s_i——计算到时间t+1的前向变量概率38&&&&&&&&&&&&&&&&&double&sum&=&Double.NEGATIVE_INFINITY;&//&=&log(0)39&&&&&&&&&&&&&&&&&for&(int&j&=&0;&j&&&N;&j++){//到第&j&种隐状态下的累计概率40&&&&&&&&&&&&&&&&&&&&&sum&=&TCMMath.logplus(&sum,&alpha[t&-&1][&j&]&+&logA[&j&][&i&]);41&&&&&&&&&&&&&&&&&}42&&&&&&&&&&&&&&&&&alpha[&t&][&i&]&=&logB[&i&][&O[&t&]&]&+&//在&【t&时刻】&下&输出观察序列&O1O2……Ot(已知观测序列的局部)&且位于第&i&种隐藏状态发生的概率43&&&&&&&&&&&&&}44&&&&&&&&&}45&&&&&}46&&&&&47&&&&&/**48&&&&&&*&【计算观测序列的概率】——前提是先计算前向变量矩阵49&&&&&&*&P(&O&|&μ&)&=&∑alpha_T(&i&)&(求和上界N,求和下界i=1)50&&&&&&*&@return&返回的结果是概率的自然对数51&&&&&&*&计算&t=T&时刻下输出观察序列&O0……OT(已经观测序列的局部)且位于第&T&状态下发生的概率52&&&&&&*/53&&&&&public&double&logProb()&{54&&&&&&&&&//3.终止,观察序列的概率等于最终时刻(&T&)所有局部概率之和55&&&&&&&&&double&sum&=&Double.NEGATIVE_INFINITY;&//&=&log(0)56&&&&&&&&&int&T&=&O.57&&&&&&&&&for&(int&i&=&0;&i&&&N;&i++){58&&&&&&&&&&&&&sum&=&TCMMath.logplus(sum,&alpha[&T-1&][&i&]);//下标从0开始59&&&&&&&&&}60&&&&&&&&&return&61&&&&&}62&&&&&63&&&&&/**64&&&&&&*&打印前向变量矩阵65&&&&&&*/66&&&&&public&void&print()&{67&&&&&&&&&for&(int&j&=&0;&j&&&N;&j++)&{68&&&&&&&&&&&&&for&(int&i&=&0;&i&&&alpha.&i++){69&&&&&&&&&&&&&&&&&System.out.print(HMMHelper.fmtlog(alpha[&i&][&j&]));70&&&&&&&&&&&&&}71&&&&&&&&&&&&&System.out.println();72&&&&&&&&&}73&&&&&}74&}&测试类:&&1&package&.hmm.&2&&3&import&.hmm.bean.HMMH&4&&5&public&class&Demo1&{&6&&&&&enum&Box&{one,&two,&three};&//&隐藏状态(箱子编号)&7&&&&&enum&Color&{red,&yellow,&blue,&green};&//&观察状态(观测到的颜色值)&8&&9&&&&&public&static&void&main(String[]&args)&{10&&&&&&&&&test();11&&&&&}12&13&&&&&public&static&void&test()&{14&&&&&&&&&//&状态转移矩阵15&&&&&&&&&double[][]&A&=&{&16&&&&&&&&&&&&&&&&&{&0.500,&0.375,&0.125&},&17&&&&&&&&&&&&&&&&&{&0.250,&0.125,&0.625&},&18&&&&&&&&&&&&&&&&&{&0.250,&0.375,&0.375&}&};19&&&&&&&&&//&发射矩阵20&&&&&&&&&double[][]&B&=&{&21&&&&&&&&&&&&&&&&&{&0.60,&0.20,&0.15,&0.05&},&22&&&&&&&&&&&&&&&&&{&0.25,&0.25,&0.25,&0.25&},&23&&&&&&&&&&&&&&&&&{&0.05,&0.10,&0.35,&0.50&}&};24&&&&&&&&&25&&&&&&&&&&&//&初始概率向量26&&&&&&&&&&&double[]&PI&=&{&0.63,&0.17,&0.20&};27&&&&&&&&&28&&&&&&&&&//&观察序列29&&&&&&&&&int[]&O&=&{&Color.yellow.ordinal(),&Color.red.ordinal(),&Color.blue.ordinal(),&Color.yellow.ordinal(),Color.green.ordinal()&};30&&&&&&&&&System.out.println("初始概率向量:{"+PI[0]+"&"+PI[1]+"&"+PI[2]+"}");31&&&&&&&&&System.out.println("隐藏状态序列:{"+Box.one+"&"+Box.two+"&"+Box.three+"}");32&&&&&&&&&System.out.println("观测序列:{"+Color.yellow+"&"+Color.red+"&"+Color.blue+"&"+Color.yellow+"&"+Color.green+"}");33&&&&&&&&&34&&&&&&&&&/**35&&&&&&&&&&*&前向算法测试——求解观察序列的概率36&&&&&&&&&&*/37&&&&&&&&&Forward&foreward=new&Forward(A,&B,&PI,&O);38&&&&&&&&&foreward.CalculateForeMatrix();//计算前向变量矩阵39&&&&&&&&&System.out.println(&HMMHelper.fmtlog(&foreward.logProb()&)&);//计算观测序列O的概率40&&&&&&&&&41&&&&&&&&&/**42&&&&&&&&&&*&后向算法测试43&&&&&&&&& */ 47&&& }48&}&标签:
&&国之画&&&& &&&&chrome插件
版权所有 京ICP备号-2
迷上了代码!2048人阅读
机器学习(61)
本总结是是个人为防止遗忘而作,不得转载和商用。
&&&&& 说明:此篇是作者对“隐马尔可夫模型”的第二次总结,因此可以算作对上次总结的查漏补缺以及更进一步的理解,所以很多在第一次总结中已经整理过的内容在本篇中将不再重复,如果你看的有些吃力,那建议你看下我的第一次总结:
&&&&& http://blog.csdn.net/xueyingxue001/article/details/
&&&&& 如上图所示,白色那一行描述由一个隐藏的马尔科夫链生成不可观测的状态随机序列,蓝紫色那一行是各个状态生成可观测的随机序列
&&&&& 话说,上面也是个贝叶斯网络,而贝叶斯网络中有这么一种,如下图:
&&&&&&&&&&
&&&&& 代表:c确定时a和b独立。(c为实心圆代表:c已经被确定)
&&&&& 这时,如果把z1看成a,x1看成b,z2看成c的话,则因为第一个图的z1是不可观测的(所以z1是空心圆),也就是没确定,则x1和z2就一定有联系。
&&&&& 进一步,如果把z2、x2合在一起看成c的话,则x1和z2、x2就一定有联系,则x1和x2有联系(不独立)。
&&&&& 推广之后:x2和x3不独立,x1和x3也不独立,于是xn们互相不独立。
LDA假定文章中的词与词之间互相独立,而HMM中是所有的观测互相均不独立。
所以,对于一篇Machine Learn的文章,LDA会吧“机器”和“学习”分成两个词,而HMM会将其视为一个词。
初始概率分布
&&&&& z1可能是状态1,状态2 ... 状态n,于是z1就有个N点分布:
&&&&& 即:Z1对应个n维的向量。
&&&&& 上面这个n维的向量就是初始概率分布,记做π。
状态转移矩阵
&&&&& 但Z2就不能简单的“同上”完事了,因为Z2和Z1不独立,所以Z2是状态1的概率有:Z1是状态1时Z2是状态1,Z1是状态2时Z2是状态1,..., Z1是状态n时Z2是状态1,于是就是下面的表
&&&&&& 即:Z1-&Z2对应个n*n的矩阵。
&&&&&& 同理:Zi -& Zi+1对应个n*n的矩阵。
&&&&& 上面这些n*n的矩阵被称为状态转移矩阵,用An*n表示。
&&&&& 当然了,真要说的话,Zi -& Zi+1的状态转移矩阵一定都不一样,但在实际应用中一般将这些状态转移矩阵定为同一个,即:只有一个状态转移矩阵。
&&&&& 图1的第一行就搞定了,下面是第二行。
&&&&& 如果对于zi有:状态1, 状态2, ..., 状态n,那zi的每一个状态都会从下面的m个观测中产生一个:观测1, 观测2, ..., 观测m,所以有如下矩阵:
&&&&& 这可以用一个n*m的矩阵表示,也就是观测矩阵,记做Bn*m。
&&&&& 由于HMM用上面的π,A,B就可以描述了,于是我们就可以说:HMM由初始概率分布π、状态转移概率分布A以及观测概率分布B确定,为了方便表达,把A, B, π 用 λ 表示,即:
&&&&& &&&&& λ = (A, B, π)
&&&&& 假设我们相对如下这行话进行分词:
&&&&&&&&&& 欢迎来到我的博客
&&&&& 再假设我们是这样分的:找到“终止字”,然后根据终止字来分词。即:对于这行字,“迎、到、我、的、客”是终止字,于是最终这么分词:欢迎/来到/我/的/博客
&&&&& 下面用上面的知识对这个例子建立HMM的A, B, π:
&&&&&& 初始概率分布的确定:
&&&&&&&&&& 1,对于每个样本,我们的目标是确定其是不是“终止字”,因此对于每个样本,其状态只有n=2个:状态1 -- 是、状态2 -- 不是。
&&&&& &&&&& 2,因此初始概率分布π为:
&&&&&&&&&&&&&&&& π = {p1,p2}
&&&&& &&&&&&&&&& P1:整个句子中第一个字是非终止字的概率
&&&&& &&&&& &&&&& P2:整个句子中第一个字是终止字的概率
&&&&& 状态转移矩阵的确定:
&&&&&&&&&& 刚才已经知道状态有n=2个,于是状态转移矩阵就立马得出了,即状态转移矩阵是个n*n的矩阵,如下:
&&&&&&&&&&&&&&&& A=
&&&&&&&&&& &&&&& p11:非终止字 -& 非终止字的概率。
&&&&& &&&&&&&&&& p12:非终止字 -& 终止字的概率。
&&&&& &&&&&&&&&& p21:终止字 -& 非终止字的概率。
&&&&& &&&&& &&&&& p22:终止字 -& 终止字的概率。
&&&&&& 观测矩阵的确定:
&&&&&&&&&& 如果我们的目标文字使用Unicode编码,那么上面的任何一个字都是0~65535中的一个数,于是我们的观测就会有m=65536个,于是观测矩阵就是个n*m的矩阵,如下:
&&&&&&&&&&&&&&&& B=
&&&&& &&&&&&&&&& p1,0:Unicode编码中0对应的汉字是非终止字的概率
&&&&& &&&&&&&&&& p1,65535:Unicode编码中65535对应的汉字是非终止字的概率
&&&&& &&&&&&&&&& p2,0:Unicode编码中0对应的汉字是终止字的概率
&&&&& &&&&&&&&&& p2,65535:Unicode编码中65535对应的汉字是终止字的概率
&&&&& &&&&& PS:为什么x会有65535个观测啊?“欢迎来到我的博客”这个明明只有8个字。原因是因为真正的HMM面临的情况,即:现有了 Z1=“非终止字”这个状态,然后根据这个状态从65535个字中选出x1=“欢”这个字,然后根据状态转移矩阵,下一次转移到了Z2 =“终止字”,然后根据Z2从65535个字中选出了x2=“迎”这个字,这样,最终生成了这句话。
HMM的两个基本性质
&&&&& 当前状态之和上一个状态有关系,用公式表示的话就是:
&&&&&&&&&& P(zt|zt-1,xt-1, zt-2, xt-2, ..., z1, x1)= P(zt | zt-1)
&观测独立性假设
&&&&& 所有的观测之间是互相独立的,某个观测之和生成它的状态有关系,即:
&&&&&&&&&& P(xt|zt,xt, zt-1, xt-1, zt-2, xt-2,..., z1, x1) = P(xt | zt)
PS:在一开始时说x1和z2、x2不独立,怎么在这里又说x1和x2独立呢?其实真严格追究的话x1和x2的确不互相独立,因为x1是被z1生成的,x2是被z2生成的, 但z2的形成受z1影响,所以x1和x2一定也会有联系,但是为了研究和应用的方便,就假设:生成x1的z1和生成x2的z2不独立,但x1和x2独立。
HMM的三个问题
&&&&& 现在有几个问题:
&&&&&&&&&& 1,知道HMM的参数 λ = (A, B, π) 和观测序列O = {o1,o2, ..., oT} ,如何计算模型 λ 下观测序列O出现的概率P(O | λ)。
&&&&&&&&&& 2,HMM的参数如何确定?
&&&&&&&&&&&&&&&& 比如:对于刚才的中文分词的小例子。
&&&&&&&&&&&&&&&&&&&&& 初始概率分布π好确定:是不是终结词的概率各是0.5。
&&&&&&&&&&&&&&&&&&&&& 观测矩阵B也好确定:1/65535嘛
&&&&&&&&&&&&&&&& 但状态转移矩阵怎么确定?我怎么知道下个词是终结词的概率是多少?
&&&&&&&&&& 3,知道HMM的参数 λ = (A, B, π) 和观测序列O = {o1,o2, ..., oT},如何计算给定观测序列条件概率P(I|O,& λ )最大的状态序列I,即:
&&&&&&&&&&&&&&&& 对于中文分词,我想到底如何分的词。
&&&&& 上面三个问题:
&&&&&&&&&& 第一个问题被称为:概率计算问题。
&&&&&&&&&&&&&&&&&&&& 解决办法:前向-后向算法(一种动态规划算法)。
&&&&&&&&&& 第二个问题被称为:学习问题。
&&&&&&&&&&&&&&&&&&&& 解决办法:如果状态序列已知,那用最大似然估计就好了,但HMM的状态序列未知,即含有隐变量,所以要使用Baum-welch算法(其实其本质就是EM算法)。
&&&&&&&&&& 第三个问题被称为:预测问题/解码问题。
&&&&&&&&&&&&&&&&&&&& 解决办法:Viterbi算法(一种动态规划算法)。
概率计算问题
&&&&& 该问题有两种解决办法:
&&&&&&&&&& 1,直接/暴力算法。
&&&&&&&&&& 2,前向算法/后向算法。
&&&&& 而上面两个算法中的“暴力方法”是实际应用中绝不会被使用的。
&&&&& Q:那为什么还说这玩意!(踹)
&&&&& A:理解了直接/暴力算法可以帮助你推导Baum-welch算法。(回踹!)
&直接/暴力计算法
&&&&& 问题:已知HMM的参数 λ,和观测序列O = {o1, o2, ...,oT},求P(O|λ)
&&&&& 思想核心:大力出奇迹。
&&&&& 思路:
&&&&&&&&&& 1,列举所有可能的长度为T的状态序列I = {i1, i2, ..., iT};
&&&&&&&&&& 2,求各个状态序列I与观测序列 的联合概率P(O,I|λ);
&&&&&&&&&& 3,所有可能的状态序列求和∑_I P(O,I|λ)得到P(O|λ)。
&&&&& 步骤:
&&&&&&&&&& 1,最终目标是求O和I同时出现的联合概率,即:
&&&&&&&&&&&&&&&& P(O,I|λ)= P(O|I, λ)P(I|λ)
&&&&&&&&&& 那就需要求出P(O|I, λ) 和 P(I|λ)。
&&&&&&&&&& 2,求P(I|λ) ,即状态序列I = {i1,i2, ..., iT} 的概率:
&&&&&&&&&& &&&&& 2.1,P(I|λ) = P(i1,i2, ..., iT |λ)
&&&&&&&&&&&&&&&&&&&&& =P(i1 |λ)P(i2, i3, ..., iT |λ)
&&&&&&&&&&&&&&&&&&&&& =P(i1 |λ)P(i2 | i1, λ)P(i3, i4, ..., iT |λ)
&&&&&&&&&&&&&&&&&&&&& =......
&&&&&&&&&&&&&&&&&&&&& =P(i1 |λ)P(i2 | i1, λ)P(i3 | i2, λ)...P(iT | iT-1, λ)
&&&&&&&&&&&&&&&& 而上面的P(i1 |λ) 是初始为状态i1的概率,P(i2 | i1, λ) 是从状态i1转移到i2的概率,其他同理,于是分别使用初始概率分布π 和状态转移矩阵A,就得到结果:
&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&& PS:上面的ai1i2代表A的第i1行第i2列。
&&&&&&&&&& 3,P(O|I, λ),即对固定的状态序列I,观测序列O的概率是:
&&&&&&&&&&&&&&&&
&&&&&&&&&& 4,代入第一步求出P(O,I|λ)。
&&&&&&&&&& 5,对所有可能的状态序列I求和得到观测序列O的概率P(O|λ):
&&&&&&&&&&
&&&&& 时间复杂度:
&&&&&&&&&& 每个时刻有n个状态,一共有t个时刻,而根据上面的第5步可以知道每个时刻需要乘2T-1次,所以时间复杂度是:O((2T-1)nT)
&前向算法/后向算法
前向概率-后向概率
&&&&& 如下图所示:
&&&&& 第一行是观测不到的状态序列,第二行是可以观测到的观测序列。
&&&&& 前向概率的定义是:当第t个时刻的状态为i时,前面的时刻分别观测到y1,y2, ..., yt的概率,即:
&&&&&&&&&&
&&&&& 后向概率的定义是:当第t个时刻的状态为i时,后面的时刻分别观测到yt+1,yt+2, ..., yT的概率,即:
&&&&&&&&&&
&&&&& 如果令前向概率中的t=T,即:
&&&&&&&&&& αi(T) = p(y1,y2, ..., yT, qT = i | λ)
&&&&& 那这就意味着,最后一个时刻位于第i号状态时,观测到y1, y2, ..., yT的概率,这不就是“直接/暴力计算法”中第4步求出来的P(O,I|λ) 嘛。
&&&&& 因此,如果对 αi(T) 的i求和,即:
&&&&&&&&&& α1(T) +α2(T) + ...+ αn(T)&
&&&&& 那就是观测序列O的概率P(O|λ)。
&&&&& 那么如何算α1(T) +α2(T) + ...+ αn(T)?
&&&&& 这样想:
&&&&&&&&&& 嗯..如果能算出第T-1时刻的前向概率,即α1(T-1) +α2(T-1) + ... + αn(T-1) 的话,那就能算出式1了(HMM的参数知道了,根据参数不就得了)。
&&&&&&&&&& 进一步,如果能算出T-2时刻的前向概率,那就能得出T-1时刻的,进而就得出时刻T的了。
&&&&&&&&&& 按照这个思路:啊!我只要算出1时刻的前向概率不就能算出结果了!
&&&&& 刚才得到了有趣的结果,即:我求出第一个1时刻的前向概率 αi(1) 后就等于求出最终结果了,那 αi(1) 是啥?
&&&&& 不就是第一个时刻状态为第i号状态时观测到y1的概率吗,即:
&&&&&&&&&& αi(1) = P(y1,q1=i | λ)
&&&&& 而第一个时刻状态为第i号状态的概率是πi,在第i号状态时得到y1这个观测的概率是Biy1,于是:
&&&&&&&&&& αi(1) =πi* Biy1
&&&&& PS:因为不知道当前是几号状态,所以为了以后的步骤,这里需要将所有的状态都算出来,即:计算出所有的 α1(1)& ~& αi(1)
&&&&& 好了,第一个时刻已经求出来了,我们就向后推。
&&&&& 假设现在到第t个时刻了,而第t个时刻的状态是状态j,那我想求时刻t+1状态为i的前向概率怎么求,这样求:
&&&&&& 时刻t+1的前向概率的 αi(t+1) 的求法就是:t时刻的状态转移到t+1时刻的状态的概率对所有状态求和 * t时刻的状态得到观测的概率,换句话说就是:t时刻的前向概率对所有的状态求和 * t时刻的状态得到观测的概率。
&&&&& 即:
&&&&&&&&&& ai(t+1) = (∑_j aj(t)aji)biy(t+1)
&&&&& 解释一下:
&&&&&&&&&& 首先,时刻t时状态为j的前向概率是aj(t)。
&&&&&&&&&& 现在时刻t状态为j的概率知道了,那乘上状态j转移到状态i的转移概率就是时刻t+1时状态为i的概率,即 aj(t)aji 。
&&&&&&&&&& 但状态是不可观测的啊,所有我们要计算时刻t时所有状态的情况,于是要对j求和,即:∑_j aj(t) aji,这才是t时刻的状态转移到t+1时刻状态的总概率。
&&&&&&&&&& 但这样还没完,因为还要由状态得到观测,所以还要在乘上状态i得到观测yt+1的概率,于是就是上面的式子了。
&&&&& 现在ai(t+1) 知道怎么求了,那不就是所有的的前向概率都知道怎么求了,于是利用刚才的结论:P(O|λ) = α1(T) +α2(T) + ... + αn(T),不就求出观测序列O的概率P(O|λ)了,即:
&&&&&&&&&& P(O|λ) =∑_i αi(T)
&&&&& OK,前向算法说完了,下面总结下。
前向算法总结
&&&&&& 初值:αi(1) =πi* Biy1
&&&&&& 递推:对于t = 1, 2, …,T-1
ai(t+1) = (∑_j aj(t)aji)biy(t+1)
&&&&&& 最终:P(O|λ) =∑_i αi(T)
&&&&&& PS:这里的 αi(t) 中i表示第i号状态,t表示第t时刻。有的教程中会把i和t位置调换一下,变成 αt(i),其实都一样。
前向算法例子
&&&&& 假设有3个盒子,编号为1,2,3,每个盒子都装有红白两种颜色的小球,数目如下:
&&&&&&&&&&
&&&&& 然后按照下面的方法抽取小球,来得到球颜色的观测序列:
&&&&&&&&&& 1,按照 π=(0.2, 0.4, 0.4) 的概率选择1个盒子,从盒子随机抽出
1个球,记录颜色后放回盒子;
2,按照下图A选择新的盒子,按照下图B抽取球,重复上述过程;
A的第i行是选择到第i号盒子,第j列是转移到j号盒子,如:第一行第二列的0.2代表:上一次选择1号盒子后这次选择2号盒子的概率是0.2。
B的第i行是选择到第i号盒子,第j列是抽取到j号球,如:第二行第一列的0.4代表:选择了2号盒子后抽取红球的概率是0.4。
&&&&&& 求:得到观测序列“红白红”的概率是多少?
&&&&&& 解:
1,明确已知:HMM模型的参数已经如上图所示了,那我们就需要再明确两件事:HMM中那“看不见的状态”和“可见的观测”分别是什么。
&&&&&&&&&& “可见的观测”根据题目可知是:y =“红白红”, “看不见的状态”就是这三次分别选择了什么盒子,且一共有3个状态:选中1号盒子、选中2号盒子、选中3号盒子。
&&&&&&&&&& 2,根据前向算法,第一步计算 αi(1),这很简单:
&&&&&&&&&&&&&&&& αi =1 (t=1) 即时刻1时位于状态“选中1号盒子”的前向概率,所以:α1(1) =“选中1号盒子”*“选中红球” = π0* B10= 0.2*0.5 = 0.1
&&&&&&&&&&&&&&&& 同理:α2(1) =0.4*0.4 = 0.16,α3(1) = 0.4*0.7 = 0.28。
&&&&&&&&&& 3,计算 αi(2):
&&&&&&&&&&&&&&&& 根据公式:
α1(2) = (∑_j α1(2)αj1) b1y2
= (0.1*0.5 + 0.16*0.3 + 0.28*0.2) * 0.5
α2(2) = 0.1104
α3(2) = 0.0606
&&&&&&&&&& 4,同αi(2),计算αi(3):
&&&&&&&&&&&&&&&& α1(3) =0.04187
&&&&&&&&&&&&&&&& α2(3) =0.03551
&&&&&&&&&&&&&&&& α3(3) =0.05284
&&&&&&&&&& 5,最终
P(O|λ) = ∑_i αi(3)
= 0.04187 + 0.03551 + 0.05284
&&&&& 有了前向算法的基础,后向算法就好说了,因为就是前向算法的反过来:先计算最后一个然后推到第一个,于是详细说明就不在给了,直接上结论:
后向算法总结
&&&&&& 初值:βT(i) = 1
&&&&& PS:概率为1的原因是 -- 本来还需要看看时刻T后面有什么东西,但因为最后一个时刻T 后面已经没有时刻,即不需要再观测某个东西,所以你随便给个什么都行,我不在乎。
&&&&&& 递推:对于t = T-1, T-2,…, 1
βi(t) = (∑_j aijbjy(t+1)βj(t+1))
&&&&&& PS:这一步是根据t+1的后向概率算t时刻的后向概率βi(t),因此:
&&&&&&&&&& βi(t) = 第t时刻位于第i号状态转移到第t+1时刻位于第j号状态的概率aij *& &第t+1时刻第j号状态给出y(t+1) 观测的概率bjy(t+1) * 第t+1时刻的后验概率。
&&&&&& 最终:P(O|λ) =∑_i πibiy1βi(1)
&&&&& PS:同第二步,只不过这里是第1时刻。
前后向概率的关系
&&&&& 具体推倒就不给出了,总之:
&&&&& 拥有所有观测时,第t时刻有第i个状态的概率 = t时刻的前向概率 * t时刻的后向概率,即:
&&&&&&&&&& P(it = qi, Y | λ ) &= αi(t) * βi(t)
单个状态的概率
&&&&& 这里的单个状态是什么呢?就是给定观测O和HMM的参数 λ 时,在时刻t时位于隐状态i的概率,记为:
&&&&&&&&&& γt(i) = P(it= qi | O, λ)
&&&&& PS:这里的O是所有观测的合集,即:O = {y1 = o1, y2 = o2, …,yT = oT}
&&&&&& 这个就很强啦,因为我们可以估计在t时刻的隐状态,进而求出隐状态序列!
&&&&& PS:这个的确是求隐状态序列的一种方式,但这种有个问题 -- 求出的隐状态之间互相独立,即:没有考虑到第t+1时刻的隐状态是由第t时刻的隐状态转移过来的情况。换言之:这样求得的隐状态是“每个隐状态都是仅在当前时刻最优,可每个隐状态都没考虑到全局情况”。
&&&&& 而它的求解也很简单,如下:
两个状态的联合概率
&&&&& 刚才“单个状态的概率”求得的t时刻的隐状态没有考虑到“上下文”,那就考虑下上下文,即:时刻t位于隐状态i时,t+1时刻位于隐状态j,记为:
&&&&&&&&&& ξt(i, j) =P(it = qi, it+1 = qj | O, λ)
&&&&& 求解推导:
&&&&&&&&&&
&&&&& 学习问题分两种:
1,&&&&&&&&观测序列和隐状态序列都给出,求HMM。
PS:这种学习是监督学习。
2,&&&&&&&&给出观测序列,但没给出隐状态序列,求HMM。
PS:这种学习是非监督学习,利用Baum-Welch算法。
观测序列和隐状态序列都给出
&&&&& 这种其实求法超简单:用大数定理用频率来估算HMM的三种概率就OK了。
&&&&&&&&&&
&&&&&& 解释:
&&&&&&&&&& 还是用最开始的分词的例子。
&&&&&&&&&&&&& 初始概率:
i = 0:第一个文字是终止字的次数 / (第一个文字是终止字的次数 + 不是终止字的次数)
i = 1:第一个文字不是终止字的次数 / (第一个文字是终止字的次数 + 不是终止字的次数)
&&&&&&&&&&&&& 转移概率:
&&&&&&&&&&&&&&&& i=0,j=0:第t个字是终止字,第t+1个字是终止字的次数 / (第t个字是终止字,第t+1个字是终止字的次数 + 第t个字是终止字,第t+1个字不是终止字的次数 + 第t个字不是终止字,第t+1个字是终止字的次数 + 第t个字不是终止字,第t+1个字不是终止字的次数)
&&&&&&&&&&&&&&&& i=0,j=1、i=1, j=0、i=1, j=1同理。
&&&&&&&&&&&&& 观测概率:
&&&&&&&&&&&&&&&& i=0,k=0:Unicode编码中编码为0的字是终止字的次数 / (Unicode编码中编码为0的字是终止字的次数 + Unicode编码中编码为0的字不是终止字的次数)
&&&&&&&&&&&&&&&& i=1,k=0:Unicode编码中编码为0的字不是终止字的次数 / (Unicode编码中编码为0的字是终止字的次数 + Unicode编码中编码为0的字不是终止字的次数)
&&&&&&&&&&&&&&&& 其他k=j同理。
Baum-Welch算法
&&&&& 其实该算法的本质就是EM算法,因为它解决的问题就是:有了观测值X,而观测值有个隐变量Z时,求在HMM参数 λ下的联合概率P(X, Z | λ) 。
PS:我总结的EM算法地址如下:
http://blog.csdn.net/xueyingxue001/article/details/
&&&&& 这里在贴一下EM算法的步骤:
&&&&& 上面的步骤写成统一的式子就是:
因此EM算法对应到HMM的学习问题就是:
& 所有观测数据写成O=(o1, o2 …oT),所有隐数据写成I=(i1, i2 …iT),完全数据是(O, I)=(o1, o2 …oT& ,i1,i2 … iT),完全数据的对数似然函数是lnP(O, I | λ)
就有如下推导:
&&&&&& 解释:
&&&&&&&&&& 第一行:EM的Q函数。
&&&&&&&&&& 第二行:条件概率公式。
&&&&&&&&&& 第三行:
第一:第二行分母代表“上一次求出的参数与观测集合的联合概率”,对本次的估计没帮助,所以可以舍去。
第二:第三行那个是正比符号,即使没有上一个解释可是可以保证第二行与第三行是成正比的。
&&&&& 话说,P(O, I | λ) 在“HMM概率计算问题”的“直接/暴力计算法”中已经解出了,这里再贴下截图:
&&&&& 于是上面可以进一步做如下推导:
&&&&& 对于上式,除了HMM的参数 λ = (A, B, π) 外都是已知的了。
&&&&& 话说上图将最后一个等号写在3行是为了表述一点:这三行的每一行仅包含HMM的一个参数,而我们的目标是求Q函数的最大,于是只要求最后三行的最大就好了。为了方便说明,我将上图最后三行的三个式子从上向下依次命名为:π式,α式,β式。
&&&&& π 式有个约束:所有πi的和为1。
&&&&& 于是对于有约束的求极值为题就拉格朗日乘子法的伺候!
&&&&& 1,拉格朗日函数
&&&&& 2,上式对 πi 求偏导
&&&&& 3,上式对i求和后 πi 的和为1就把 π 约掉了,从而求出拉格朗日参数
&&&&& 4,将上式带入第二步的式子就求出了π:
&&&&& 而上式的 γ 就是“HMM概率计算问题”中“单个状态的概率”中的 γ(PS:不是拉格朗日参数),于是 π 就求出来了!
&&&&& α 式可以写成
&&&&& 仍然使用拉格朗日乘子法,得到
&&&&& 上式的 γ 是“HMM概率计算问题”中“单个状态的概率”中的 γ,上式的 ξ 是“HMM概率计算问题”中“两个状态的联合概率”中的 ξ。
&&&&& 同理,得到:
&&&&& 上式的 γ 是“HMM概率计算问题”中“单个状态的概率”中的 γ。
&&&&& 预测问题有两种解决办法:
1,&&&&&&&&近似算法。其实就是“HMM概率计算问题”中“单个状态的概率”的解法。
2,&&&&&&&&Viterbi 算法。下面讲解这个。
VIterbi算法
&&&&& 在介绍维特比算法之前,我先用通俗的语言描述下它。
&&&&& 假设我们遇到了这么个问题:
&&&&&&&&&& 大学时你让室友帮你带饭(如果你上过大学,别告诉我你没干过这事....),然后你室友问你想吃啥?你回答:“你吃啥我吃啥,不过回来时帮忙带瓶雪碧,谢啦”。于是有趣的事就发生了:你室友给你带回了饭和雪碧并兴高采烈的说:“我去,食堂换大厨了,那个小卖部的收银员换成了个漂亮妹子!!”然后你问他:“你去的哪个食堂和小卖部?”,他想了想回答:“你猜。”
&&&&&&&&&& 好了,你猜吧~
&&&&&&&&&& 我猜你妹啊(╯‵□′)╯︵┻━┻
&&&&& 嘛,先别慌掀桌,不管如何你室友帮你带了饭,所以咱们就满足下他那小小的恶作剧,就当做是给他跑腿的辛苦费好了。
&&&&& PS:假设你学校有2个小卖部和2个食堂。
&&&&& 于是,mission start!
&&&&& 首先,问他:你先去得小卖部?他回答:是的。
&&&&& OK,买东西的先后顺序搞定了,如下图:
&&&&& 接下来开始思考:
&&&&&&&&&& 第一步:从宿舍到小卖部A和B的距离都差不多,不好判断,即从宿舍到小卖部A的概率 = 从宿舍到小卖部B的概率,如下图;
&&&&&&&&&&
&&&&&&&&&& 第二步:从小卖部A、B到食堂1、2有四种路线(A1, A2, B1, B2),然后这四种路线中到食堂1最短的是A1,到食堂2最短的是B2,然后这货绝对那个近选哪个,所以如果去食堂1,则他会选择A1,如果去食堂2,则他会选择B2,如下图:
&&&&&&&&&&
&&&&&&&&&& 第三步:看看他给带来的饭,嗯....这个饭我记得食堂1有卖,食堂2不知道,就当没有吧,那就假设他去的是食堂1,如下图:
&&&&&&&&&&
&&&&&&&&&& 第四步:OK,终点已经确定,接下来反推回去,就好了,即:他绝壁选个最近的小卖部,所以他会选择距离食堂1最近的小卖部A,如下图:
&&&&&&&&&&
&&&&&&&&&& 第五步:对他说:“你先去小卖部A然后去食堂1对吧”,他说:“我次奥,你咋知道的”。
&&&&& OK,例子举完了,我们来看看维特比算法,其实维特比算法就是上面的过程:&& &&&&& 1,先从前向后推出一步步路径的最大可能,最终会得到一个从起点连接每一个终点的m条路径(假设有m个终点)。
&&&&& &&&&& 2,确定终点之后在反过来选择前面的路径。
&&&&& &&&&& 3,确定最优路径。
&&&&& 下面看看Viterbi算法的定义。
Viterbi 算法的定义
&&&&& 定义变量δt(i):表示时刻t状态为i的所有路径中的概率最大值,公式如下:
&&&&&&&&&&
&&&&& 过程:
&&&&&&&&&&
&&&&& 上面的符号之前都已经见过,这里不再解释,下面为了更好地理解这几步,我们来举个例子。
&&&&& 还是盒子球模型。
&&&&& 盒子和球模型λ= (A, B,π),状态集合Q={1, 2, 3},观测集合V={红, 白},
&&&&&&&&&&
&&&&& 已知观测序列O=(红,白,红),试求最优状态序列,即最优路径I*= (i1*, i2*, i3*)。
&&&&& 解:
&&&&&&&&&& 如下图所示(图中的数字在之后的步骤中会一一推导出来)
&&&&&&&&&&&&&&&&
&&&&&&&&&& 要在所有可能的路径中选择一条最优路径,按照以下步骤出来。
&&&&&&&&&&&&& 1,初始化
&&&&&&&&&&&&& t=1时,对每个状态i, i=1, 2, 3,求状态为i观测o1为红的概率,记此概率为δ1(i),则:
&&&&&&&&&&&&&&&& δ1(i) = πibi(o1)=πibi(红), i = 1, 2, 3
&&&&&&&&&& 代入实际数据
&&&&&&&&&&&&&&&& δ1(1) = 0.10,δ1(2) =0.16,δ1(3) = 0.28
&&&&&&&&&& 记ψ1(i) = 0,i = 1, 2, 3。
&&&&&&&&&& 2,在t=n时
&&&&&&&&&& t=2时,对每个状态i,求在t=1时状态为j观测为红并且在t=2时状态为i观测为白的路径的最大概率,记概率为δ2(t),则根据:
&&&&&&&&&&&&&&&&
&&&&&&&&&& 同时,对每个状态i, i = 1, 2, 3,记录概率最大路径的前一个状态j:
&&&&&&&&&& &&&&&
&&&&&&&&&& 计算:
&&&&&&&&&&&&&&&&
&&&&&&&&&& 同样,在t=3时
& & & & & & & &&&&&&&&&&&&&&&&&&
&&&&&&&&&& 3,求最优路径的终点
&&&&&&&&&&&&& 以P*表示最优路径的概率,则
&&&&&&&&&&&&&&&&
&&&&&&&&&& 最优路径的终点是i3*:
&&&&&&&&&&&&&&&&
&&&&&&&&&& 4,逆向找i2*,i1*:
&&&&&&&&&&&&&&&& 在t=2时,i2* = ψ3(i3*) =ψ3(3) = 3
&&&&&&&&&&&&&&&& 在t=2时,i1* = ψ2(i2*) =ψ2(3) = 3
&&&&&&&&&& 于是求得最优路径,即最有状态序列I* = (i1*,i2*, i3*) = (3, 3, 3)。
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:146326次
积分:3786
积分:3786
排名:第8173名
原创:243篇
评论:100条
(1)(1)(1)(2)(5)(16)(3)(1)(63)(4)(71)(35)(13)(7)(3)(7)(1)(6)(4)

我要回帖

更多关于 隐式马尔可夫模型 的文章

 

随机推荐