随机变量的变换的Slutsky定理
字数 2642 2025-11-13 17:31:40

随机变量的变换的Slutsky定理

我们先从随机变量序列收敛性的基本概念开始。假设我们有两个随机变量序列 \(X_n\)\(Y_n\),以及一个常数 \(c\)。Slutsky 定理描述了在 \(X_n\)\(Y_n\) 分别以某种方式收敛时,它们的和、差、积、商等组合的收敛性质。这个定理在统计推断中极为重要,特别是在讨论估计量的渐近分布时。

1. 收敛模式回顾

  • 依概率收敛:若对任意 \(\epsilon > 0\),有 \(\lim_{n \to \infty} P(|X_n - X| \geq \epsilon) = 0\),则称 \(X_n\) 依概率收敛于 \(X\),记作 \(X_n \xrightarrow{P} X\)
  • 依分布收敛:若对 \(X_n\)\(X\) 的分布函数 \(F_n\)\(F\) 的所有连续点 \(x\),有 \(\lim_{n \to \infty} F_n(x) = F(x)\),则称 \(X_n\) 依分布收敛于 \(X\),记作 \(X_n \xrightarrow{d} X\)

2. Slutsky 定理的陈述
\(X_n\)\(Y_n\) 为随机变量序列,满足:

  • \(X_n \xrightarrow{d} X\)(依分布收敛于随机变量 \(X\));
  • \(Y_n \xrightarrow{P} c\)(依概率收敛于常数 \(c\))。
    则以下结论成立:
  1. \(X_n + Y_n \xrightarrow{d} X + c\)
  2. \(X_n Y_n \xrightarrow{d} cX\)
  3. \(c \neq 0\),则 \(\frac{X_n}{Y_n} \xrightarrow{d} \frac{X}{c}\)

3. 关键点与注意事项

  • \(Y_n\) 收敛于常数:Slutsky 定理要求 \(Y_n\) 依概率收敛于一个常数 \(c\),而不是随机变量。如果 \(Y_n\) 收敛于一个非常数随机变量,结论可能不成立。
  • 运算的连续性:定理的证明依赖于连续映射定理。由于加法、乘法(当 \(c \neq 0\) 时)和除法是连续函数,因此随机变量序列的变换能保持收敛性。
  • 常数处理的优势:将 \(Y_n\) 的极限设为常数 \(c\),简化了问题,因为常数与随机变量的运算不会引入额外的随机性。

4. 证明思路(以 \(X_n + Y_n\) 为例)

  • 目标:证明 \(X_n + Y_n \xrightarrow{d} X + c\)
  • 步骤:
    1. 对任意 \(\epsilon > 0\),考虑事件 \(\{ |Y_n - c| < \epsilon \}\) 及其补集。
    2. 利用 \(Y_n \xrightarrow{P} c\),可知 \(P(|Y_n - c| \geq \epsilon) \to 0\)
    3. \(P(X_n + Y_n \leq t)\) 拆分为两部分,分别对应于 \(|Y_n - c| < \epsilon\)\(|Y_n - c| \geq \epsilon\)
    4. \(|Y_n - c| < \epsilon\) 的条件下,\(X_n + Y_n\)\(X_n + c\) 的差被控制在 \(\epsilon\) 以内,结合 \(X_n \xrightarrow{d} X\) 和分布函数的连续性,可得极限分布为 \(X + c\)
    5. 另一部分的概率趋于 0,因此不影响极限。

5. 统计应用示例
假设 \(\hat{\theta}_n\) 是参数 \(\theta\) 的估计量,满足:

\[\sqrt{n}(\hat{\theta}_n - \theta) \xrightarrow{d} N(0, \sigma^2), \]

\(\hat{\sigma}_n^2 \xrightarrow{P} \sigma^2\)。则:

  • 由 Slutsky 定理,\(\frac{\sqrt{n}(\hat{\theta}_n - \theta)}{\hat{\sigma}_n} = \frac{\sqrt{n}(\hat{\theta}_n - \theta)}{\sigma} \cdot \frac{\sigma}{\hat{\sigma}_n} \xrightarrow{d} N(0,1) \cdot 1 = N(0,1)\)
  • 这使得我们能用 \(\hat{\sigma}_n\) 替代未知的 \(\sigma\) 构建置信区间或进行假设检验。

6. 与连续映射定理的关系
Slutsky 定理可视为连续映射定理的特例。连续映射定理指出:若 \(X_n \xrightarrow{d} X\) 且函数 \(g\) 连续,则 \(g(X_n) \xrightarrow{d} g(X)\)。在 Slutsky 定理中,通过将 \((X_n, Y_n)\) 视为联合序列,并利用 \(Y_n\) 收敛于常数的性质,使得 \(g(x, y) = x + y\)\(g(x, y) = xy\) 等函数在极限处连续,从而保证收敛性。

7. 常见误区

  • \(Y_n\) 收敛于非常数:若 \(Y_n \xrightarrow{d} Y\)(非常数),则 \(X_n + Y_n\) 的极限分布未必是 \(X + Y\),除非 \(X_n\)\(Y_n\) 满足特定独立性条件。
  • 除法中 \(c = 0\):当 \(c = 0\) 时,\(\frac{X_n}{Y_n}\) 可能不收敛,或收敛于非常见分布(如柯西分布),需单独分析。

通过以上步骤,您可以看到 Slutsky 定理如何通过结合不同收敛模式,简化随机变量序列变换的渐近分析,成为统计推断中不可或缺的工具。

随机变量的变换的Slutsky定理 我们先从随机变量序列收敛性的基本概念开始。假设我们有两个随机变量序列 \( X_ n \) 和 \( Y_ n \),以及一个常数 \( c \)。Slutsky 定理描述了在 \( X_ n \) 和 \( Y_ n \) 分别以某种方式收敛时,它们的和、差、积、商等组合的收敛性质。这个定理在统计推断中极为重要,特别是在讨论估计量的渐近分布时。 1. 收敛模式回顾 依概率收敛 :若对任意 \( \epsilon > 0 \),有 \( \lim_ {n \to \infty} P(|X_ n - X| \geq \epsilon) = 0 \),则称 \( X_ n \) 依概率收敛于 \( X \),记作 \( X_ n \xrightarrow{P} X \)。 依分布收敛 :若对 \( X_ n \) 和 \( X \) 的分布函数 \( F_ n \) 和 \( F \) 的所有连续点 \( x \),有 \( \lim_ {n \to \infty} F_ n(x) = F(x) \),则称 \( X_ n \) 依分布收敛于 \( X \),记作 \( X_ n \xrightarrow{d} X \)。 2. Slutsky 定理的陈述 设 \( X_ n \) 和 \( Y_ n \) 为随机变量序列,满足: \( X_ n \xrightarrow{d} X \)(依分布收敛于随机变量 \( X \)); \( Y_ n \xrightarrow{P} c \)(依概率收敛于常数 \( c \))。 则以下结论成立: \( X_ n + Y_ n \xrightarrow{d} X + c \); \( X_ n Y_ n \xrightarrow{d} cX \); 若 \( c \neq 0 \),则 \( \frac{X_ n}{Y_ n} \xrightarrow{d} \frac{X}{c} \)。 3. 关键点与注意事项 \( Y_ n \) 收敛于常数 :Slutsky 定理要求 \( Y_ n \) 依概率收敛于一个常数 \( c \),而不是随机变量。如果 \( Y_ n \) 收敛于一个非常数随机变量,结论可能不成立。 运算的连续性 :定理的证明依赖于连续映射定理。由于加法、乘法(当 \( c \neq 0 \) 时)和除法是连续函数,因此随机变量序列的变换能保持收敛性。 常数处理的优势 :将 \( Y_ n \) 的极限设为常数 \( c \),简化了问题,因为常数与随机变量的运算不会引入额外的随机性。 4. 证明思路(以 \( X_ n + Y_ n \) 为例) 目标:证明 \( X_ n + Y_ n \xrightarrow{d} X + c \)。 步骤: 对任意 \( \epsilon > 0 \),考虑事件 \( \{ |Y_ n - c| < \epsilon \} \) 及其补集。 利用 \( Y_ n \xrightarrow{P} c \),可知 \( P(|Y_ n - c| \geq \epsilon) \to 0 \)。 将 \( P(X_ n + Y_ n \leq t) \) 拆分为两部分,分别对应于 \( |Y_ n - c| < \epsilon \) 和 \( |Y_ n - c| \geq \epsilon \)。 在 \( |Y_ n - c| < \epsilon \) 的条件下,\( X_ n + Y_ n \) 与 \( X_ n + c \) 的差被控制在 \( \epsilon \) 以内,结合 \( X_ n \xrightarrow{d} X \) 和分布函数的连续性,可得极限分布为 \( X + c \)。 另一部分的概率趋于 0,因此不影响极限。 5. 统计应用示例 假设 \( \hat{\theta}_ n \) 是参数 \( \theta \) 的估计量,满足: \[ \sqrt{n}(\hat{\theta}_ n - \theta) \xrightarrow{d} N(0, \sigma^2), \] 且 \( \hat{\sigma}_ n^2 \xrightarrow{P} \sigma^2 \)。则: 由 Slutsky 定理,\( \frac{\sqrt{n}(\hat{\theta}_ n - \theta)}{\hat{\sigma}_ n} = \frac{\sqrt{n}(\hat{\theta}_ n - \theta)}{\sigma} \cdot \frac{\sigma}{\hat{\sigma}_ n} \xrightarrow{d} N(0,1) \cdot 1 = N(0,1) \)。 这使得我们能用 \( \hat{\sigma}_ n \) 替代未知的 \( \sigma \) 构建置信区间或进行假设检验。 6. 与连续映射定理的关系 Slutsky 定理可视为连续映射定理的特例。连续映射定理指出:若 \( X_ n \xrightarrow{d} X \) 且函数 \( g \) 连续,则 \( g(X_ n) \xrightarrow{d} g(X) \)。在 Slutsky 定理中,通过将 \( (X_ n, Y_ n) \) 视为联合序列,并利用 \( Y_ n \) 收敛于常数的性质,使得 \( g(x, y) = x + y \)、\( g(x, y) = xy \) 等函数在极限处连续,从而保证收敛性。 7. 常见误区 \( Y_ n \) 收敛于非常数 :若 \( Y_ n \xrightarrow{d} Y \)(非常数),则 \( X_ n + Y_ n \) 的极限分布未必是 \( X + Y \),除非 \( X_ n \) 和 \( Y_ n \) 满足特定独立性条件。 除法中 \( c = 0 \) :当 \( c = 0 \) 时,\( \frac{X_ n}{Y_ n} \) 可能不收敛,或收敛于非常见分布(如柯西分布),需单独分析。 通过以上步骤,您可以看到 Slutsky 定理如何通过结合不同收敛模式,简化随机变量序列变换的渐近分析,成为统计推断中不可或缺的工具。