随机变量的变换的Pitman效率
好的,我们接下来循序渐进地学习“随机变量的变换的Pitman效率”这一概念。这是一个比较深入的、用于比较两个统计检验相对有效性的理论框架。
第一步:理解背景——我们为什么要比较统计检验?
想象你在处理一个统计假设检验问题。比如,你想检验“一种新药是否比旧药更有效”。你收集了数据,并打算用一个统计量(比如样本均值之差)来做判断。然而,面对同一组数据,你可能会设计出不止一种检验方法。
- 问题来了:在诸多可供选择的检验方法中,哪一个“更好”?
- “更好”通常意味着:在犯第一类错误(“假警报”,即新药无效但被你判断为有效)的概率被控制在相同水平(如5%)的前提下,谁的功效(Power) 更大。功效高意味着更容易检测出真实的效应(即新药如果真的有效,你发现它的概率更高)。
- 但直接比较功效有时很困难,因为它依赖于很多具体设定(比如真实的效应大小、样本量等)。因此,统计学家发展出了在各种“极限情况”下比较检验的理论,Pitman效率就是其中最重要的一种,它属于渐近相对效率(Asymptotic Relative Efficiency, ARE) 的范畴。
第二步:从直观到形式化——什么是“渐近相对效率”(ARE)?
为了比较检验A和检验B,一个自然的想法是:
为了让检验B达到和检验A相同的功效,检验B需要多少额外的样本量?
- 形式化定义:设检验A在样本量为 n 时,能达到某个特定的功效(比如80%)。现在,检验B要达到完全相同的功效,需要的样本量是 m。如果当 n 很大时,比值 n/m 趋近于一个常数 e,那么我们称 e 为检验A相对于检验B的渐近相对效率(ARE)。
- 解释:
- 如果 e = 2,意味着检验A的效率是检验B的2倍。或者说,检验B需要两倍的样本量才能达到和检验A一样的效果。
- e > 1 表示A更优;e < 1 表示B更优;e = 1 表示两者渐近等效。
Pitman效率是计算ARE的一种经典且强大的方法。
第三步:Pitman效率的核心思想——局部备择假设
Pitman效率的精妙之处在于其比较的“场景”设定。它考虑的不是一个固定的备择假设,而是一系列随着样本量增大而无限接近原假设的备择假设。这被称为局部备择假设序列 或 Pitman漂移。
-
为什么要这样设定?
- 技术上的便利:当备择假设离原假设“很远”时,任何合理的检验其功效都会趋近于1,难以区分优劣。当备择假设“很近”时,两个检验的功效都略高于显著性水平,这时它们的“分辨”能力差异会凸显出来,并且可以用理论工具(比如中心极限定理)进行严格的渐近分析。
- 现实的近似:在很多实际应用中(如药物试验、质量检测),我们关心的正是检测那些微小但有意义的效应。Pitman框架恰好模拟了这种“检测微弱信号”的能力。
-
数学表述:假设我们要检验 H₀: θ = θ₀。Pitman考虑的是形如 H₁ₙ: θ = θ₀ + δ/√n 的备择假设序列,其中 δ 是一个非零常数。可以看到,随着样本量 n 增大,备择假设以 1/√n 的速度“漂向”原假设。这个速度是精心选择的,它使得检验统计量在备择假设下的分布,其均值的偏移量与标准差处于同一量级,从而使得检验的功效收敛到一个介于显著性水平α和1之间的常数。
第四步:Pitman效率的计算公式
假设我们有两个检验,分别基于统计量 T_{A,n} 和 T_{B,n} 来检验 H₀: θ = θ₀。在Pitman的局部备择假设框架下,通常可以证明这两个统计量具有如下渐近分布:
在 H₁ₙ: θ = θ₀ + δ/√n 下,
- √n (T_{A,n} - μ_A(θ₀)) → N( δ * τ_A, σ_A² )
- √n (T_{B,n} - μ_B(θ₀)) → N( δ * τ_B, σ_B² )
其中:
→表示依分布收敛。- μ(·) 是统计量的期望函数。
- τ 是一个灵敏度系数,反映了统计量期望对参数θ变化的敏感度,通常 τ = μ‘(θ₀)。
- σ² 是统计量在原点处的渐近方差。
在这种情况下,检验A相对于检验B的Pitman效率有一个简洁的公式:
\[e_{A,B} = \left( \frac{\tau_A / \sigma_A}{\tau_B / \sigma_B} \right)^2 = \frac{(\tau_A / \sigma_A)^2}{(\tau_B / \sigma_B)^2} \]
第五步:解读公式与一个经典例子
公式中的比值 (τ/σ) 极其关键,它可以被理解为统计量的信噪比:
- “信号” (τ):参数变化时,统计量期望值的变化率。越大表示对参数变化越敏感。
- “噪声” (σ):统计量本身的波动(标准差)。越小表示越稳定。
- 信噪比 (τ/σ):综合衡量了统计量“探测”参数变化的能力。信噪比高的检验更有效。
Pitman效率就是这个信噪比之比的平方。
-
经典例子:t检验 vs. 符号检验
考虑从单样本位置参数模型 X ~ F(x-θ) 中检验 H₀: θ=0。F是对称分布。- 检验A:单样本t检验。统计量为样本均值 \bar{X}。可以计算出,其渐近分布的信噪比为 τ_A/σ_A = 1/σ,其中σ是总体标准差。
- 检验B:符号检验。统计量为正号个数 S_n。其渐近分布的信噪比为 τ_B/σ_B = 2f(0),其中 f(0) 是总体密度函数在原点(对称中心)的值。
根据Pitman效率公式:
\[ e_{t, sign} = \left( \frac{1/σ}{2f(0)} \right)^2 = \frac{1}{4σ^2 f(0)^2} \]
* 如果总体是**标准正态分布**,则 *σ=1, f(0)=1/√(2π)*,计算可得 *e_{t, sign} = π/2 ≈ 1.571*。这意味着在正态情况下,t检验的效率比符号检验高约57%。
* 如果总体是**拉普拉斯分布(双指数分布)**,其密度在中心更“尖”,可以算出 *e_{t, sign} = 2*。t检验效率翻倍。
* 如果总体是**均匀分布**,密度在中心较“平”,可以算出 *e_{t, sign} = 1/3*。此时符号检验反而更有效。
这个例子生动展示了Pitman效率如何依赖于总体分布,并为我们选择检验提供了理论依据。
第六步:总结、意义与局限性
总结:Pitman效率是在局部备择假设的渐近框架下,通过比较两个检验统计量的渐近信噪比平方之比,来衡量它们相对效率的理论工具。
意义:
- 提供了客观的比较基准:它给出了一个不依赖于具体样本量和固定效应大小的、纯粹由统计量内在性质决定的效率比值。
- 揭示了统计量的本质属性:它将检验的有效性归结为“信噪比”这一核心概念,直观而深刻。
- 指导实践:如t检验与符号检验的例子所示,Pitman效率告诉我们,没有“放之四海而皆准”的最优检验。最有效的检验依赖于数据背后的分布假设。
局限性:
- 渐近性质:结论在大样本下才成立。对于小样本,实际表现可能不同。
- 局部备择假设:它衡量的是检测微小偏差的能力。对于较大的、明显的效应,效率排序可能发生变化。
- 依赖于模型:如例子所示,效率值依赖于总体分布F,而F在实际中往往是未知的。
尽管如此,Pitman效率依然是假设检验理论中一个里程碑式的概念,它将检验的比较置于坚实、优雅的渐近理论基础之上。