期望极大

EM 算法

EM 算法通过迭代求 $L(\theta) = \log P(Y | \theta)$ 的极大似然估计。每次迭代包含两步:E步,求期望;M步,求极大化。

算法步骤

输入:观测变量数据 $Y$,隐变量数据 $Z$,联合分布 $P(Y, Z | \theta)$,条件分布 $P(Z | Y, \theta)$;
输出:模型参数$\theta$。

(1)选择参数初始值 $\theta^{(0)}$,开始迭代;
(2)E 步:计算 Q 函数值

这里,$P(Z | Y, \theta^{(i)})$ 是在给定观测数据 $Y$ 和当前的参数估计 $\theta^{(i)}$ 下隐变量数据 $Z$ 条件概率分布;
(3)M 步:求使 $Q(\theta, \theta^{(i)})$ 极大化的 $\theta$,确定第 $i + 1$ 次迭代的参数估计值 $\theta^{(i + 1)}$

(4)重复(2)(3)步直到收敛


期望极大
http://example.com/2025/06/03/期望极大/
作者
ddccffq
发布于
2025年6月3日
许可协议