随机变量的变换的Cramér–Wold定理
字数 974 2025-11-22 23:14:17

随机变量的变换的Cramér–Wold定理

我们先从理解随机向量的特性入手。随机向量是多个随机变量构成的向量,比如 (X₁, X₂, ..., Xₙ)。要完全掌握一个随机向量的概率分布,传统上需要知道其联合分布函数,这在维度较高时可能非常复杂。

为了简化问题,我们引入特征函数。随机向量 X = (X₁, X₂, ..., Xₙ) 的特征函数定义为 φ_X(t) = E[exp(i tX)],其中 t 是实数向量。特征函数的一个重要性质是:它唯一地决定了随机向量的分布。也就是说,如果两个随机向量有相同的特征函数,那么它们的分布也相同。

现在,我们考虑一个更具体的问题:如何通过一维投影来识别高维分布?Cramér–Wold定理对此给出了完美的解答。该定理指出,随机向量 X 的分布完全由所有可能的一维线性投影 tX 的分布所决定。更精确地说,对于任意向量 t ∈ Rⁿ,随机变量 tX 的分布族唯一地确定了 X 的分布。

为了理解其机制,我们注意到投影 tX 的特征函数与原始向量 X 的特征函数之间存在直接联系。具体地,投影的特征函数为 φ_{tX}(s) = E[exp(i s (tX))] = E[exp(i (s t)ᵀ X)] = φ_X(s t)。这个等式表明,通过扫描所有实数 s 和所有方向向量 t,我们实际上就能得到原始随机向量 X 的特征函数在所有点上的值。

Cramér–Wold定理在统计学中具有重要应用价值。特别是在证明随机向量的收敛性时,该定理显示出巨大优势。根据该定理,要证明随机向量序列 {X_n} 依分布收敛于 X,我们只需证明对于每个方向向量 t,其对应的标量投影序列 {tX_n} 依分布收敛于 tX。这实际上将高维的收敛性问题简化为一维的收敛性问题,大大降低了证明的复杂度。

在多元统计分析中,Cramér–Wold定理为估计量的渐近正态性提供了理论基础。当我们能够证明估计量在任意方向上的投影都渐近服从正态分布时,就可以直接推断出该估计量本身服从多元正态分布。这个性质使得定理成为连接一维正态分布与多维正态分布的重要桥梁。

随机变量的变换的Cramér–Wold定理 我们先从理解随机向量的特性入手。随机向量是多个随机变量构成的向量,比如 (X₁, X₂, ..., Xₙ)。要完全掌握一个随机向量的概率分布,传统上需要知道其联合分布函数,这在维度较高时可能非常复杂。 为了简化问题,我们引入特征函数。随机向量 X = (X₁, X₂, ..., Xₙ) 的特征函数定义为 φ_ X ( t ) = E[ exp(i t ᵀ X )],其中 t 是实数向量。特征函数的一个重要性质是:它唯一地决定了随机向量的分布。也就是说,如果两个随机向量有相同的特征函数,那么它们的分布也相同。 现在,我们考虑一个更具体的问题:如何通过一维投影来识别高维分布?Cramér–Wold定理对此给出了完美的解答。该定理指出,随机向量 X 的分布完全由所有可能的一维线性投影 t ᵀ X 的分布所决定。更精确地说,对于任意向量 t ∈ Rⁿ,随机变量 t ᵀ X 的分布族唯一地确定了 X 的分布。 为了理解其机制,我们注意到投影 t ᵀ X 的特征函数与原始向量 X 的特征函数之间存在直接联系。具体地,投影的特征函数为 φ_ { t ᵀ X }(s) = E[ exp(i s ( t ᵀ X ))] = E[ exp(i ( s t )ᵀ X )] = φ_ X (s t )。这个等式表明,通过扫描所有实数 s 和所有方向向量 t ,我们实际上就能得到原始随机向量 X 的特征函数在所有点上的值。 Cramér–Wold定理在统计学中具有重要应用价值。特别是在证明随机向量的收敛性时,该定理显示出巨大优势。根据该定理,要证明随机向量序列 { X _ n} 依分布收敛于 X ,我们只需证明对于每个方向向量 t ,其对应的标量投影序列 { t ᵀ X _ n} 依分布收敛于 t ᵀ X 。这实际上将高维的收敛性问题简化为一维的收敛性问题,大大降低了证明的复杂度。 在多元统计分析中,Cramér–Wold定理为估计量的渐近正态性提供了理论基础。当我们能够证明估计量在任意方向上的投影都渐近服从正态分布时,就可以直接推断出该估计量本身服从多元正态分布。这个性质使得定理成为连接一维正态分布与多维正态分布的重要桥梁。