随机变量的变换的分布收敛方法
好的,我们开始学习“随机变量的变换的分布收敛方法”。这个方法的核心思想是:当我们已知一个随机变量序列依分布收敛于某个极限,那么对这个序列施加一个“足够好”的变换函数后,新的随机变量序列是否也会依分布收敛?如果会,那么极限是什么?
第一步:回顾基础——依分布收敛
首先,我们必须清晰地理解依分布收敛的概念,因为这是我们讨论的起点。
-
定义:设有一列随机变量
{X_n}和一个随机变量X,它们对应的累积分布函数分别为{F_n(x)}和F(x)。如果对于F(x)的所有连续点x,都有
lim (n→∞) F_n(x) = F(x)
成立,那么我们称序列{X_n}依分布收敛 于X,记作X_n →_d X。 -
关键点:依分布收敛关心的是分布函数的收敛性,而不是随机变量取值本身的收敛。它是最弱的一种收敛形式之一。
第二步:问题的提出——变换会破坏收敛性吗?
现在,我们考虑一个变换函数 g。假设我们知道 X_n →_d X,那么我们自然想知道 g(X_n) 的收敛性质。直观上,如果 g 是一个“行为良好”的函数,那么 g(X_n) 应该会收敛到 g(X)。
但是,这里存在陷阱。考虑以下情况:
- 如果
g是不连续的,而极限随机变量X的分布恰好以正概率落在g的不连续点上,那么g(X_n)的极限行为可能会很怪异。 - 即使
g是连续的,如果X_n只是依分布收敛而非更强形式的收敛(如几乎必然收敛或依概率收敛),结论也并非总是成立。
因此,我们需要一个严谨的理论来告诉我们,在什么条件下,我们可以安全地“交换”极限运算和函数运算的次序,即 lim g(X_n) = g(lim X_n) 在分布收敛的意义下成立。
第三步:核心定理——连续映射定理
解决上述问题的关键是一个极为重要且强大的定理,称为连续映射定理。
-
定理内容:设随机变量序列
{X_n}和随机变量X定义在同一个概率空间(或不同空间,这对依分布收敛是允许的)。如果X_n →_d X,且函数g: R → R是一个连续函数(或者更一般地,其不连续点的集合的概率测度在X的分布下为0),那么有:
g(X_n) →_d g(X) -
定理的解读:
- 连续性要求:定理只要求函数
g在极限随机变量X的“支撑集”上几乎是连续的就足够了。也就是说,g可以有一些不连续点,但只要X取到这些不连续点值的概率为0(即P(X ∈ D_g) = 0,其中D_g是g的不连续点集),结论依然成立。这大大扩展了定理的适用性。 - 强大的推论:这个定理是许多重要结论的基础。例如,如果
X_n →_d N(0,1)(标准正态分布),那么根据连续映射定理,我们可以立即推出:(X_n)^2 →_d χ²(1)(自由度为1的卡方分布),因为函数g(x) = x²是连续的。|X_n| →_d |N(0,1)|(半正态分布)。exp(X_n) →_d exp(N(0,1))(对数正态分布)。
- 连续性要求:定理只要求函数
第四步:方法的扩展——Slutsky定理
连续映射定理处理的是单个序列的变换。在实际应用中(特别是在统计学中),我们经常会遇到两个或多个序列组合在一起的情况。这时,我们需要另一个重要工具——Slutsky定理。
-
定理内容:设
{X_n},{Y_n}为随机变量序列。- 如果
X_n →_d X。 - 如果
Y_n →_p c,其中c是一个常数(依概率收敛于常数)。
那么,以下结论成立:
a.X_n + Y_n →_d X + c
b.X_n Y_n →_d cX
c. 如果c ≠ 0,则X_n / Y_n →_d X / c
- 如果
-
定理的解读与应用:
- Slutsky定理的强大之处在于它将依分布收敛和依概率收敛混合使用。依概率收敛是比依分布收敛更强的一种收敛。
- 这个定理在统计学中至关重要。例如,在证明估计量的渐近正态性时,我们常常有
√n(θ̂_n - θ) →_d N(0, σ²),而方差σ²需要被一个估计量σ̂_n²代替。如果我们能证明σ̂_n² →_p σ²,那么根据Slutsky定理,就有√n(θ̂_n - θ) / σ̂_n →_d N(0,1)。这为我们构建置信区间和进行假设检验提供了理论基础。
第五步:方法的应用与实例
让我们通过一个简单的例子来综合运用上述方法。
-
问题:设
X_1, X_2, ...是独立同分布的随机变量,E[X_i] = μ,Var(X_i) = σ² < ∞。根据中心极限定理,有Z_n = √n (X̄_n - μ) / σ →_d Z,其中Z ~ N(0,1)。
现在,我们关心样本方差S_n²的渐近分布。 -
解决步骤:
- 已知一个关键结论:
(n-1)S_n² / σ² →_d χ²(n-1)(可以近似为χ²_{n-1},当n很大时)。 - 但我们更想知道
S_n²本身的分布。我们可以将S_n²写为:
S_n² = (σ² / (n-1)) * [(n-1)S_n² / σ²] - 令
Y_n = (n-1)S_n² / σ²,则Y_n →_d χ²_{n-1}(当n→∞时,χ²_{n-1}可以渐近地看作一个随机变量)。 - 令
g(y) = (σ² / (n-1)) * y。这是一个连续的线性函数。 - 根据连续映射定理,因为
Y_n →_d Y(Y服从某个极限分布),且g连续,所以有:
g(Y_n) = S_n² →_d g(Y)
这告诉我们样本方差S_n²是渐近于一个缩放后的卡方分布。更进一步,可以推导出√n (S_n² - σ²)的渐近正态性,这又会用到Delta方法(这是另一个“变换的分布收敛方法”,但你已经学过,这里作为联系提及)。
- 已知一个关键结论:
总结
“随机变量的变换的分布收敛方法”主要由两个核心定理支撑:连续映射定理和Slutsky定理。前者保证了在连续变换下,依分布收敛的性质得以保持;后者则提供了处理随机变量序列线性组合的渐近行为的强大工具。这套方法是概率论极限理论和数理统计大样本理论的基石,使得我们能够从已知的收敛性出发,推导出复杂估计量和检验统计量的渐近分布。