下载此文档

最大期望值EM算法.ppt


文档分类:IT计算机 | 页数:约25页 举报非法文档有奖
1/25
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/25 下载此文档
文档列表 文档介绍
期望最大化算法
汇报人: 喻定
1
目录
期望最大化思想
期望最大化推导
2
最大化似然估计
在已知试验结果(即是样本)的情况下,用来估计满足这些样本分布的参数,把可能性最大的那个参数作为真实的参数估计。
目的:根据样本值估计参数=>模型=>结果
例如:money= k1*x+k2*y+k3*z
X:面积 y:地段 z:楼层 k:参数 money:房价
根据某一单元的10户房的样本x,y,z,money 。
根据已知10组数据用最大似然法求出k1,k2,,,,得出模型
money = *x+*y+*z
只要知道小区里某个房子的面积、地段、楼层=>房价
套用模型
3
最大化似然估计
4
此表达式不是条件概率,因为此时参数看作变量
最大化似然估计
求最大似然函数估计值的一般步骤:
(1)写似然函数;
(2)取对数;
(3)求导数,令导数为0,得到似然方程;
(4)解似然方程,得到的参数即为所求。
5
期望最大化思想
机器学习十大算法之一——期望最大化算法(EM)
用来干嘛的?——解决参数估计问题
EM很简单,简单在于它的思想,仅包含了两个步骤就能完成强大的功能;(E步骤, M步骤)
EM又很复杂,复杂在于它的数学推理涉及到比较繁杂的概率公式等。(凸函数,琴生不等式,拉格朗日中值定理,贝叶斯,最大似然估计等)
6
期望最大化思想
EM算法是一种有效的迭代过程。
EM
E步骤:根据上一次迭代的参数来计算出隐藏变量的后验概率,其实就是隐藏变量的期望。=> p(θ|x)值=>p( z |x,θ)
M步骤:将似然函数最大化以获得新的参数值。估计的模型参数使得观察的数据出现概率是最大的。=> 更新θ值
EM算法有很多的应用,最广泛的就是clustering、GMM、HMM等等。
7
期望最大化思想
K-means聚类例子
期望步(E-步):给定当前的簇中心,每个对象都被指派到簇中心离该对象最近的簇,期望每个对象都属于最近的簇。
最大化步(M-步):对于每个簇,算法调整其中心,使得到该新中心的距离之和最小化。将指派到一个簇的对象的相似度最大化。
8
期望最大化思想
GMM混合高斯模型例子:
班上学生的身高就是一个GMM混合高斯模型,由男生身高的高斯分布和女生身高的高斯分布组成。
估计每个样例是男生还是女生=>分别估计均值和方差。
9
期望最大化思想
N
Y
10
利用当前参数值计算数据j
由第i个类生成的概率
收敛?
最后参数值

最大期望值EM算法 来自淘豆网m.daumloan.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数25
  • 收藏数0 收藏
  • 顶次数0
  • 上传人分享精品
  • 文件大小2.47 MB
  • 时间2018-07-21
最近更新