随机变量的变换的随机化鞍点近似
让我们从“鞍点近似”的基本概念开始。鞍点近似是一种用于近似概率分布尾部或累积概率的解析方法,特别在中心极限定理效果不佳(例如样本量小或对分布尾部感兴趣)时非常有用。其核心思想是,对分布的概率生成函数(如矩生成函数MGF或累积量生成函数CGF)进行复变积分表示,然后通过最速下降法(鞍点法)来近似这个积分。
首先,你需要回忆随机变量的矩生成函数 \(M(t) = E[e^{tX}]\) 和累积量生成函数 \(K(t) = \log M(t)\)。对于一个随机变量和 \(S_n = \sum_{i=1}^n X_i\),其累积量生成函数为 \(nK(t)\)。通过逆变换,\(S_n\) 的概率密度函数可以表示为:
\[f_{S_n}(s) = \frac{1}{2\pi i} \int_{\tau - i\infty}^{\tau + i\infty} e^{nK(t) - ts} \, dt \]
其中积分路径在 \(M(t)\) 收敛域内。鞍点 \(t_s\) 是满足最速下降法条件的点,即令被积函数指数部分的导数为零:\(nK'(t_s) - s = 0\),或等价地 \(K'(t_s) = s/n\)。在 \(t_s\) 处对被积函数进行二阶泰勒展开并计算高斯积分,得到经典的鞍点近似:
\[f_{S_n}(s) \approx \frac{1}{\sqrt{2\pi n K''(t_s)}} e^{nK(t_s) - t_s s} \]
这个近似通常比中心极限定理(基于在 \(t=0\) 处展开)更精确,尤其在尾部区域,因为它根据特定的 \(s\) 值动态地选择展开点 \(t_s\)。
然而,经典鞍点近似需要知道确切的累积量生成函数 \(K(t)\),这在许多实际问题中可能未知或过于复杂。这就是“随机化鞍点近似”的切入点。其基本思想是用一个随机化的、更容易处理的替代函数来近似 \(K(t)\),从而得到一个计算上更可行且仍保持高精度的近似。
随机化的常见策略是利用样本数据。假设我们观测到独立同分布的样本 \(X_1, \dots, X_n\),我们可以用经验矩生成函数 \(M_n(t) = \frac{1}{n} \sum_{i=1}^n e^{t X_i}\) 及其对数 \(K_n(t) = \log M_n(t)\) 来替代真实的 \(K(t)\)。那么,随机化的鞍点 \(t_s^*\) 由方程 \(K_n'(t_s^*) = s/n\) 定义。将其代入近似公式,得到随机化鞍点近似:
\[f_{S_n}(s) \approx \frac{1}{\sqrt{2\pi n K_n''(t_s^*)}} e^{n K_n(t_s^*) - t_s^* s} \]
由于 \(K_n(t)\) 是基于随机样本的,因此 \(t_s^*\) 和整个近似量也是随机的。但研究表明,在适当的正则条件下,这种随机化近似会以很高的概率收敛到真实密度,并且其相对误差通常具有 \(O_p(n^{-1})\) 或更好的阶数,与经典鞍点近似相当。
随机化鞍点近似的一个关键优势是易于处理复杂模型。例如,在贝叶斯分层模型或随机效应模型中,真实的 \(K(t)\) 可能涉及难以计算的高维积分。但通过随机化(例如,从后验分布中抽取样本并构建经验 MGF),我们可以规避这个积分。类似地,在自助法(bootstrap)框架中,我们可以对重采样样本计算 \(K_n^*(t)\),从而近似 \(S_n\) 在自助法分布下的密度。
最后,我们简要讨论其扩展和注意事项。随机化鞍点近似可以扩展到多维情况,通过处理向量 \(t\) 和 \(s\),并使用累积量生成函数的 Hessian 矩阵。此外,它也可用于近似尾概率 \(P(S_n > s)\),这只需对密度近似进行积分调整(例如使用 Lugannani-Rice 公式的随机化版本)。但需要注意的是,随机化近似引入了额外的变异性,其精度取决于样本量和经验 MGF 的质量。在实践中,通常需要足够大的 \(n\) 来保证 \(K_n(t)\) 是 \(K(t)\) 的良好估计,尤其是在尾部 \(|t|\) 较大时。