Skip to content

5 大数定律与中心极限定理

大数定律

依概率收敛

Y1,Y2,,Yn, 是随机变量序列,Y 是随机变量,如果对于任意正数 ε>0,都有 limnP(|YnY|ε)=0,则称 Yn 依概率收敛于 Y,记作 YnPY

特别地,当 Y 服从退化分布,即 P(Y=c)=1,称 Yn 依概率收敛于 c,记作 YnPc

NOTE

YnPY 理解为:当样本容量 n 充分大时,YnY 充分接近。

关于不依概率收敛到常数,而是依概率收敛到另一个随机变量的情况:完全可能出现,因为没说它们之间是相互独立的。例如有随机变量 Y(分布任意)和噪声源 XU(1,1),有随机变量序列 Yi=Y+1iX,那就有 YnPY

两个概率不等式

马尔可夫不等式:对于非负随机变量 Xp,e>0

P(Xε)E(Xp)εp

切比雪夫不等式:对于非负随机变量 Xε>0

P(|XE(X)|ε)Var(x)ε2

理解两个不等式

p=1,马尔可夫不等式在说:对于非负随机变量 X,如果知道了均值 μ,能约束它「大得离谱」的概率。

上界怎么来的?来源于非负。要让 P(Xε) 最大,那让 Xε 的部分尽可能小,取 ε;其余部分也尽可能小,取 0。那要维持均值 μ,就有 εP(Xε)+0=μ,自然得到这个概率是 με

完整版再加个 p 次方。


切比雪夫不等式在说:知道方差 σ2,就能约束偏离均值的概率。偏离 ε 的概率不会超过 σ2ε2

切比雪夫不等式是马尔可夫不等式中取 p=2 并用 Xμ 替代 X 得到的。

大数定律

设有随机变量 X1,X2,,Xn,,记 X¯=1ni=0nXi,如果满足 X¯E(X¯)P0,称随机变量序列 X1,X2,,Xn, 服从大数定律。

马尔可夫大数定律:如果随机变量序列满足 limn1n2Var(i=1nXi)=0,则服从大数定律。

辛钦大数定律:独立同分布的随机变量序列,只要期望存在,就服从大数定律。

理解大数定律

对于独立同分布的变量 X1,X2,,Xn,,设每次期望是 μ,方差是 σ2。考虑其样本均值 X¯,随着次数 n 的增大:

  • 均值期望不会变:E(X¯)=μ
  • 均值方差会变小:Var(X¯)=σ2n

根据切比雪夫不等式,X¯ 偏离均值 ε 的概率不会超过 σ2nε2。当 n 时这个概率 0。也就是说 X¯Pμ,服从大数定律。

核心就在于均值方差在随着 1n 变小,n 的时候就彻底退化到 0 了。

如果不是独立同分布,那「均值方差 0」这件事就只能靠增加条件来约束了。

中心极限定理

按分布收敛

设随机变量 Y,Y1,Y2,,Yn, 的分布函数 F(x),F1(x),F2(x),,Fn(x),,若对 F(x) 的任一连续点 x 都有 limnFn(x)=F(x),则称随机变量序列 Y1,Y2,,Yn, 按分布收敛于随机变量 Y,记作 YnLY

TIP

也可以写「按分布收敛于某一分布例如 XLN(0,1)

中心极限定理

中心极限定理是指这样的一类结论在某些条件下,会有

(X¯)=(Xi)=XiE(Xi)σ(Xi)LN(0,1)

或者也可以表达为:

X¯LN(μ,σ2n)

只介绍其中的一个。

林德伯格 - 莱维中心极限定理:对于独立同分布随机变量 X1,,Xn,,有 E(X1)=μVar(X1)=σ2,则

Yn=X¯μσ/nLN(0,1)