随机变量的变换的Pitman效率
字数 3158 2025-12-18 14:02:49

随机变量的变换的Pitman效率

好的,我们接下来循序渐进地学习“随机变量的变换的Pitman效率”这一概念。这是一个比较深入的、用于比较两个统计检验相对有效性的理论框架。


第一步:理解背景——我们为什么要比较统计检验?

想象你在处理一个统计假设检验问题。比如,你想检验“一种新药是否比旧药更有效”。你收集了数据,并打算用一个统计量(比如样本均值之差)来做判断。然而,面对同一组数据,你可能会设计出不止一种检验方法。

  • 问题来了:在诸多可供选择的检验方法中,哪一个“更好”?
  • “更好”通常意味着:在犯第一类错误(“假警报”,即新药无效但被你判断为有效)的概率被控制在相同水平(如5%)的前提下,谁的功效(Power) 更大。功效高意味着更容易检测出真实的效应(即新药如果真的有效,你发现它的概率更高)。
  • 但直接比较功效有时很困难,因为它依赖于很多具体设定(比如真实的效应大小、样本量等)。因此,统计学家发展出了在各种“极限情况”下比较检验的理论,Pitman效率就是其中最重要的一种,它属于渐近相对效率(Asymptotic Relative Efficiency, ARE) 的范畴。

第二步:从直观到形式化——什么是“渐近相对效率”(ARE)?

为了比较检验A和检验B,一个自然的想法是:

为了让检验B达到和检验A相同的功效,检验B需要多少额外的样本量

  • 形式化定义:设检验A在样本量为 n 时,能达到某个特定的功效(比如80%)。现在,检验B要达到完全相同的功效,需要的样本量是 m。如果当 n 很大时,比值 n/m 趋近于一个常数 e,那么我们称 e 为检验A相对于检验B的渐近相对效率(ARE)
  • 解释
    • 如果 e = 2,意味着检验A的效率是检验B的2倍。或者说,检验B需要两倍的样本量才能达到和检验A一样的效果。
    • e > 1 表示A更优;e < 1 表示B更优;e = 1 表示两者渐近等效。

Pitman效率是计算ARE的一种经典且强大的方法。


第三步:Pitman效率的核心思想——局部备择假设

Pitman效率的精妙之处在于其比较的“场景”设定。它考虑的不是一个固定的备择假设,而是一系列随着样本量增大而无限接近原假设的备择假设。这被称为局部备择假设序列Pitman漂移

  • 为什么要这样设定?

    1. 技术上的便利:当备择假设离原假设“很远”时,任何合理的检验其功效都会趋近于1,难以区分优劣。当备择假设“很近”时,两个检验的功效都略高于显著性水平,这时它们的“分辨”能力差异会凸显出来,并且可以用理论工具(比如中心极限定理)进行严格的渐近分析
    2. 现实的近似:在很多实际应用中(如药物试验、质量检测),我们关心的正是检测那些微小但有意义的效应。Pitman框架恰好模拟了这种“检测微弱信号”的能力。
  • 数学表述:假设我们要检验 H₀: θ = θ₀。Pitman考虑的是形如 H₁ₙ: θ = θ₀ + δ/√n 的备择假设序列,其中 δ 是一个非零常数。可以看到,随着样本量 n 增大,备择假设以 1/√n 的速度“漂向”原假设。这个速度是精心选择的,它使得检验统计量在备择假设下的分布,其均值的偏移量与标准差处于同一量级,从而使得检验的功效收敛到一个介于显著性水平α和1之间的常数。


第四步:Pitman效率的计算公式

假设我们有两个检验,分别基于统计量 T_{A,n}T_{B,n} 来检验 H₀: θ = θ₀。在Pitman的局部备择假设框架下,通常可以证明这两个统计量具有如下渐近分布:

H₁ₙ: θ = θ₀ + δ/√n 下,

  • √n (T_{A,n} - μ_A(θ₀)) → N( δ * τ_A, σ_A² )
  • √n (T_{B,n} - μ_B(θ₀)) → N( δ * τ_B, σ_B² )

其中:

  • 表示依分布收敛。
  • μ(·) 是统计量的期望函数。
  • τ 是一个灵敏度系数,反映了统计量期望对参数θ变化的敏感度,通常 τ = μ‘(θ₀)
  • σ² 是统计量在原点处的渐近方差。

在这种情况下,检验A相对于检验B的Pitman效率有一个简洁的公式:

\[e_{A,B} = \left( \frac{\tau_A / \sigma_A}{\tau_B / \sigma_B} \right)^2 = \frac{(\tau_A / \sigma_A)^2}{(\tau_B / \sigma_B)^2} \]


第五步:解读公式与一个经典例子

公式中的比值 (τ/σ) 极其关键,它可以被理解为统计量的信噪比

  • “信号” (τ):参数变化时,统计量期望值的变化率。越大表示对参数变化越敏感。
  • “噪声” (σ):统计量本身的波动(标准差)。越小表示越稳定。
  • 信噪比 (τ/σ):综合衡量了统计量“探测”参数变化的能力。信噪比高的检验更有效。

Pitman效率就是这个信噪比之比的平方。

  • 经典例子:t检验 vs. 符号检验
    考虑从单样本位置参数模型 X ~ F(x-θ) 中检验 H₀: θ=0。F是对称分布。

    • 检验A:单样本t检验。统计量为样本均值 \bar{X}。可以计算出,其渐近分布的信噪比为 τ_A/σ_A = 1/σ,其中σ是总体标准差。
    • 检验B:符号检验。统计量为正号个数 S_n。其渐近分布的信噪比为 τ_B/σ_B = 2f(0),其中 f(0) 是总体密度函数在原点(对称中心)的值。

    根据Pitman效率公式:

\[ e_{t, sign} = \left( \frac{1/σ}{2f(0)} \right)^2 = \frac{1}{4σ^2 f(0)^2} \]

*   如果总体是**标准正态分布**,则 *σ=1, f(0)=1/√(2π)*,计算可得 *e_{t, sign} = π/2 ≈ 1.571*。这意味着在正态情况下,t检验的效率比符号检验高约57%。
*   如果总体是**拉普拉斯分布(双指数分布)**,其密度在中心更“尖”,可以算出 *e_{t, sign} = 2*。t检验效率翻倍。
*   如果总体是**均匀分布**,密度在中心较“平”,可以算出 *e_{t, sign} = 1/3*。此时符号检验反而更有效。

这个例子生动展示了Pitman效率如何依赖于总体分布,并为我们选择检验提供了理论依据。

第六步:总结、意义与局限性

总结:Pitman效率是在局部备择假设的渐近框架下,通过比较两个检验统计量的渐近信噪比平方之比,来衡量它们相对效率的理论工具。

意义

  1. 提供了客观的比较基准:它给出了一个不依赖于具体样本量和固定效应大小的、纯粹由统计量内在性质决定的效率比值。
  2. 揭示了统计量的本质属性:它将检验的有效性归结为“信噪比”这一核心概念,直观而深刻。
  3. 指导实践:如t检验与符号检验的例子所示,Pitman效率告诉我们,没有“放之四海而皆准”的最优检验。最有效的检验依赖于数据背后的分布假设。

局限性

  1. 渐近性质:结论在大样本下才成立。对于小样本,实际表现可能不同。
  2. 局部备择假设:它衡量的是检测微小偏差的能力。对于较大的、明显的效应,效率排序可能发生变化。
  3. 依赖于模型:如例子所示,效率值依赖于总体分布F,而F在实际中往往是未知的。

尽管如此,Pitman效率依然是假设检验理论中一个里程碑式的概念,它将检验的比较置于坚实、优雅的渐近理论基础之上。

随机变量的变换的Pitman效率 好的,我们接下来循序渐进地学习“随机变量的变换的Pitman效率”这一概念。这是一个比较深入的、用于比较两个统计检验相对有效性的理论框架。 第一步:理解背景——我们为什么要比较统计检验? 想象你在处理一个统计假设检验问题。比如,你想检验“一种新药是否比旧药更有效”。你收集了数据,并打算用一个统计量(比如样本均值之差)来做判断。然而,面对同一组数据,你可能会设计出 不止一种 检验方法。 问题来了 :在诸多可供选择的检验方法中, 哪一个“更好”? “更好”通常意味着:在犯第一类错误(“假警报”,即新药无效但被你判断为有效)的概率被控制在相同水平(如5%)的前提下,谁的 功效(Power) 更大。功效高意味着更容易检测出真实的效应(即新药如果真的有效,你发现它的概率更高)。 但直接比较功效有时很困难,因为它依赖于很多具体设定(比如真实的效应大小、样本量等)。因此,统计学家发展出了在各种“极限情况”下比较检验的理论, Pitman效率 就是其中最重要的一种,它属于 渐近相对效率(Asymptotic Relative Efficiency, ARE) 的范畴。 第二步:从直观到形式化——什么是“渐近相对效率”(ARE)? 为了比较检验A和检验B,一个自然的想法是: 为了让检验B达到和检验A 相同的功效 ,检验B需要多少 额外的样本量 ? 形式化定义 :设检验A在样本量为 n 时,能达到某个特定的功效(比如80%)。现在,检验B要达到完全相同的功效,需要的样本量是 m 。如果当 n 很大时,比值 n/m 趋近于一个常数 e ,那么我们称 e 为检验A相对于检验B的 渐近相对效率(ARE) 。 解释 : 如果 e = 2 ,意味着检验A的效率是检验B的2倍。或者说,检验B需要两倍的样本量才能达到和检验A一样的效果。 e > 1 表示A更优; e < 1 表示B更优; e = 1 表示两者渐近等效。 Pitman效率是计算ARE的一种经典且强大的方法。 第三步:Pitman效率的核心思想——局部备择假设 Pitman效率的精妙之处在于其比较的“场景”设定。它考虑的不是一个固定的备择假设,而是一系列 随着样本量增大而无限接近原假设 的备择假设。这被称为 局部备择假设序列 或 Pitman漂移 。 为什么要这样设定? 技术上的便利 :当备择假设离原假设“很远”时,任何合理的检验其功效都会趋近于1,难以区分优劣。当备择假设“很近”时,两个检验的功效都略高于显著性水平,这时它们的“分辨”能力差异会凸显出来,并且可以 用理论工具(比如中心极限定理)进行严格的渐近分析 。 现实的近似 :在很多实际应用中(如药物试验、质量检测),我们关心的正是检测那些微小但有意义的效应。Pitman框架恰好模拟了这种“检测微弱信号”的能力。 数学表述 :假设我们要检验 H₀: θ = θ₀ 。Pitman考虑的是形如 H₁ₙ: θ = θ₀ + δ/√n 的备择假设序列,其中 δ 是一个非零常数。可以看到,随着样本量 n 增大,备择假设以 1/√n 的速度“漂向”原假设。这个速度是精心选择的,它使得检验统计量在备择假设下的分布,其均值的偏移量与标准差处于同一量级,从而使得检验的功效收敛到一个介于显著性水平α和1之间的常数。 第四步:Pitman效率的计算公式 假设我们有两个检验,分别基于统计量 T_ {A,n} 和 T_ {B,n} 来检验 H₀: θ = θ₀ 。在Pitman的局部备择假设框架下,通常可以证明这两个统计量具有如下渐近分布: 在 H₁ₙ: θ = θ₀ + δ/√n 下, √n (T_ {A,n} - μ_ A(θ₀)) → N( δ * τ_ A, σ_ A² ) √n (T_ {B,n} - μ_ B(θ₀)) → N( δ * τ_ B, σ_ B² ) 其中: → 表示依分布收敛。 μ(·) 是统计量的期望函数。 τ 是一个灵敏度系数,反映了统计量期望对参数θ变化的敏感度,通常 τ = μ‘(θ₀) 。 σ² 是统计量在原点处的渐近方差。 在这种情况下,检验A相对于检验B的 Pitman效率 有一个简洁的公式: \[ e_ {A,B} = \left( \frac{\tau_ A / \sigma_ A}{\tau_ B / \sigma_ B} \right)^2 = \frac{(\tau_ A / \sigma_ A)^2}{(\tau_ B / \sigma_ B)^2} \] 第五步:解读公式与一个经典例子 公式中的比值 (τ/σ) 极其关键,它可以被理解为统计量的 信噪比 : “信号” (τ) :参数变化时,统计量期望值的变化率。越大表示对参数变化越敏感。 “噪声” (σ) :统计量本身的波动(标准差)。越小表示越稳定。 信噪比 (τ/σ) :综合衡量了统计量“探测”参数变化的能力。信噪比高的检验更有效。 Pitman效率就是这个信噪比之比的平方。 经典例子:t检验 vs. 符号检验 考虑从单样本位置参数模型 X ~ F(x-θ) 中检验 H₀: θ=0 。F是对称分布。 检验A:单样本t检验 。统计量为样本均值 \bar{X} 。可以计算出,其渐近分布的信噪比为 τ_ A/σ_ A = 1/σ ,其中σ是总体标准差。 检验B:符号检验 。统计量为正号个数 S_ n 。其渐近分布的信噪比为 τ_ B/σ_ B = 2f(0) ,其中 f(0) 是总体密度函数在原点(对称中心)的值。 根据Pitman效率公式: \[ e_ {t, sign} = \left( \frac{1/σ}{2f(0)} \right)^2 = \frac{1}{4σ^2 f(0)^2} \] 如果总体是 标准正态分布 ,则 σ=1, f(0)=1/√(2π) ,计算可得 e_ {t, sign} = π/2 ≈ 1.571 。这意味着在正态情况下,t检验的效率比符号检验高约57%。 如果总体是 拉普拉斯分布(双指数分布) ,其密度在中心更“尖”,可以算出 e_ {t, sign} = 2 。t检验效率翻倍。 如果总体是 均匀分布 ,密度在中心较“平”,可以算出 e_ {t, sign} = 1/3 。此时符号检验反而更有效。 这个例子生动展示了Pitman效率如何依赖于总体分布,并为我们选择检验提供了理论依据。 第六步:总结、意义与局限性 总结 :Pitman效率是在 局部备择假设 的渐近框架下,通过比较两个检验统计量的 渐近信噪比平方之比 ,来衡量它们相对效率的理论工具。 意义 : 提供了客观的比较基准 :它给出了一个不依赖于具体样本量和固定效应大小的、纯粹由统计量内在性质决定的效率比值。 揭示了统计量的本质属性 :它将检验的有效性归结为“信噪比”这一核心概念,直观而深刻。 指导实践 :如t检验与符号检验的例子所示,Pitman效率告诉我们,没有“放之四海而皆准”的最优检验。最有效的检验依赖于数据背后的分布假设。 局限性 : 渐近性质 :结论在 大样本 下才成立。对于小样本,实际表现可能不同。 局部备择假设 :它衡量的是检测 微小偏差 的能力。对于较大的、明显的效应,效率排序可能发生变化。 依赖于模型 :如例子所示,效率值依赖于总体分布F,而F在实际中往往是未知的。 尽管如此,Pitman效率依然是假设检验理论中一个里程碑式的概念,它将检验的比较置于坚实、优雅的渐近理论基础之上。