11.EM算法

朴灿烈づ我的快乐病毒、 2022-10-16 07:27 264阅读 0赞

11.EM算法

本文主要转自:https://www.cnblogs.com/pinard/p/6912636.html

EM算法也称期望最大化(Expectation-Maximum,简称EM)算法,它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM), LDA主题模型的变分推断等等。本文就对EM算法的原理做一个总结。

11.1.EM算法要解决的问题

我们经常会从样本观察数据中,找出样本的模型参数。 最常用的方法就是极大化模型分布的对数似然函数。

但是在一些情况下,我们得到的观察数据有未观察到的隐含数据,此时我们未知的有隐含数据和模型参数,因而无法直接用极大化对数似然函数得到模型分布的参数。怎么办呢?这就是EM算法可以派上用场的地方了。

EM算法解决这个的思路是使用启发式的迭代方法,既然我们无法直接求出模型分布参数,那么我们可以先猜想隐含数据(EM算法的E步),接着基于观察数据和猜测的隐含数据一起来极大化对数似然,求解我们的模型参数(EM算法的M步)。由于我们之前的隐藏数据是猜测的,所以此时得到的模型参数一般还不是我们想要的结果。不过没关系,我们基于当前得到的模型参数,继续猜测隐含数据(EM算法的E步),然后继续极大化对数似然,求解我们的模型参数(EM算法的M步)。以此类推,不断的迭代下去,直到模型分布参数基本无变化,算法收敛,找到合适的模型参数。

从上面的描述可以看出,EM算法是迭代求解最大值的算法,同时算法在每一次迭代时分为两步,E步和M步。一轮轮迭代更新隐含数据和模型分布参数,直到收敛,即得到我们需要的模型参数。

一个最直观了解EM算法思路的是K-Means算法,见之前写的K-Means聚类算法原理(http://www.cnblogs.com/pinard/p/6164214.html)。在K-Means聚类时,每个聚类簇的质心是隐含数据。我们会假设K个初始化质心,即EM算法的E步;然后计算得到每个样本最近的质心,并把样本聚类到最近的这个质心,即EM算法的M步。重复这个E步和M步,直到质心不再变化为止,这样就完成了K-Means聚类。

当然,K-Means算法是比较简单的,实际中的问题往往没这么简单。

11.2.EM算法的推导

在这里插入图片描述
在这里插入图片描述

11.3.EM算法流程

在这里插入图片描述

11.4.EM算法的收敛性思考

在这里插入图片描述
在这里插入图片描述

11.5.EM算法的一些思考

如果我们从算法思想的角度来思考EM算法,我们可以发现我们的算法里已知的是观察数据,未知的是隐含数据和模型参数,在E步,我们所做的事情是固定模型参数的值,优化隐含数据的分布,而在M步,我们所做的事情是固定隐含数据分布,优化模型参数的值。比较下其他的机器学习算法,其实很多算法都有类似的思想。比如SMO算法(支持向量机原理(四)SMO算法原理(http://www.cnblogs.com/pinard/p/6111471.html)),坐标轴下降法(Lasso回归算法: 坐标轴下降法与最小角回归法小结(http://www.cnblogs.com/pinard/p/6018889.html)), 都使用了类似的思想来求解问题。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

发表评论

表情:
评论列表 (有 0 条评论,264人围观)

还没有评论,来说两句吧...

相关阅读

    相关 EM算法

    一、EM算法介绍         我们经常会从样本观察数据中,找出样本的模型参数。 最常用的方法就是极大化模型分布的对数似然函数。(最大似然估计:利用已知的样本结果,反推

    相关 EM算法

    Maximum Likelihood Estimation Maximum Likelihood Estimation(MLE)是要选择一个最佳参数θ\,使得从训练集中观

    相关 EM算法

    转载为了以后方便复习,防止好的博客突然就error found 转自http://www.cnblogs.com/jerrylead/archive/2011/04/06/2

    相关 EM算法总结

    看了一天EM算法,做了ppt。总结一下。 第一篇[教程][Link 1]很基础,可以看前部分,回忆一下概率论。 第二篇[教程][Link 2]很理论,讲的很清楚,挺好看。

    相关 EM算法推导

    EM算法也称期望最大化(Expectation-Maximum, EM)算法,它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM), LDA主题模型的

    相关 EM 算法

    这个暂时还不太明白,先写一点明白的。 EM:最大期望算法,属于基于模型的聚类算法。是对似然函数的进一步应用。 我们知道,当我们想要估计某个分布的未知值,可以使用样本结果来进