期望极大
EM 算法
EM 算法通过迭代求 $L(\theta) = \log P(Y | \theta)$ 的极大似然估计。每次迭代包含两步:E步,求期望;M步,求极大化。
算法步骤
输入:观测变量数据 $Y$,隐变量数据 $Z$,联合分布 $P(Y, Z | \theta)$,条件分布 $P(Z | Y, \theta)$;
输出:模型参数$\theta$。
(1)选择参数初始值 $\theta^{(0)}$,开始迭代;
(2)E 步:计算 Q 函数值
这里,$P(Z | Y, \theta^{(i)})$ 是在给定观测数据 $Y$ 和当前的参数估计 $\theta^{(i)}$ 下隐变量数据 $Z$ 条件概率分布;
(3)M 步:求使 $Q(\theta, \theta^{(i)})$ 极大化的 $\theta$,确定第 $i + 1$ 次迭代的参数估计值 $\theta^{(i + 1)}$
(4)重复(2)(3)步直到收敛
期望极大
http://example.com/2025/06/03/期望极大/