在数学与统计学中,大数定律(英语:Law of large numbers)又称大数法则、大数律,是描述相当多次数重复实验的结果的定律。根据这个定律知道,样本数量越多,则其算术平均值就有越高的机率接近期望值。
大数定律很重要,因为它“说明”了一些随机事件的均值的长期稳定性。人们发现,在重复试验中,随着试验次数的增加,事件发生的频率趋于一个稳定值;人们同时也发现,在对物理量的测量实践中,测定值的算术平均也具有稳定性。比如,我们向上抛一枚硬币,硬币落下后哪一面朝上是偶然的,但当我们上抛硬币的次数足够多后,达到上万次甚至几十万几百万次以后,我们就会发现,硬币每一面向上的次数约占总次数的二分之一,亦即偶然之中包含着必然。
上述现象是切比雪夫不等式的一个特殊应用情况,辛钦定理和伯努利大数定律也都概括了这一现象,它们统称为大数定律。
例如,抛掷一颗均匀的6面的骰子,1,2,3,4,5,6应等概率出现,所以每次扔出骰子后,出现点数的期望值是
根据大数定理,如果多次抛掷骰子,随着抛掷次数的增加,平均值(样本平均值)应该接近3.5,根据大数定理,在多次伯努利实验中,实验频率最后收敛于理论推断的概率值,对于伯努利随机变量,理论推断的成功概率就是期望值,而若对n个相互独立的随机变量的平均值,频率越多则相对越精准。
例如硬币投掷即伯努利实验,当投掷一枚均匀的硬币,理论上得出的正面向上的概率应是1/2。因此,根据大数定理,正面朝上的比例在相对“大”的数字下,“理应”接近为1/2,尤其是正面朝上的频率在n次实验(n接近无限大时)后应几近收敛到1/2。
即使正面朝上(或背面朝上)的比例接近1/2,几乎很自然的正面与负面朝上的绝对差值(absolute difference差值范围)应该相应随着抛掷次数的增加而增加。换句话说,绝对差值的概率应该是会随着抛掷次数而接近于0。直观的来看,绝对差值的期望会增加,只是慢于抛掷次数增加的速度。
大数定律主要有两种表现形式:弱大数定律和强大数定律。定律的两种形式都肯定无疑地表明,样本均值
收敛于真值
其中 , , ... 是独立同分布、期望值 且皆勒贝格可积的随机变量构成的无穷序列。的勒贝格可积性意味着期望值 存在且有限。
方差有限的假设是非必要的。很大或者无穷大的方差会使其收敛得缓慢一些,但大数定律仍然成立。通常采用这个假设来使证明更加简洁。
强和弱之间的差别在所断言的收敛的方式。对于这些方式的解释,参见随机变量的收敛。
弱大数定律(WLLN) 也称为辛钦定理,陈述为:样本均值依概率收敛于期望值。[1]
也就是说对于任意正数 ε,
强大数定律(SLLN)指出,样本均值以概率1收敛于期望值。
即
设 为相互独立的随机变量,其数学期望为:,方差为:
则序列依概率收敛于(即收敛于此数列的数学期望)。
换言之,在定理条件下,当无限变大时,个随机变量的算术平均将变成一个常数。
设在次独立重复伯努利试验中,事件发生的次数为,事件在每次试验中发生的母体机率为,代表样本发生事件的频率。
则对任意正数,伯努利大数定律表明:
换言之,事件发生的频率依机率收敛于事件的母体机率。该定理以严格的数学形式表达了频率的稳定性,也就是说当很大时,事件发生的频率与母体机率有较大偏差的可能性很小。