在機率論和統計學中,一個離散性隨機變數的期望值(或數學期望值,亦簡稱期望值,物理學中稱為期待值)是試驗中每次可能的結果乘以其結果機率的總和。換句話說,期望值像是隨機試驗在同樣的機會下重複多次,所有那些可能狀態平均的結果,便基本上等同「期望值」所期望值的數。期望值可能與每一個結果都不相等。換句話說,期望值是該變量輸出值的加權平均。期望值並不一定包含於其分布值域,也並不一定等於值域平均值。
例如,擲一枚公平的六面骰子,其每次「點數」的期望值是3.5,計算如下:
![{\displaystyle {\begin{aligned}\operatorname {E} (X)&=1\cdot {\frac {1}{6}}+2\cdot {\frac {1}{6}}+3\cdot {\frac {1}{6}}+4\cdot {\frac {1}{6}}+5\cdot {\frac {1}{6}}+6\cdot {\frac {1}{6}}\\[6pt]&={\frac {1+2+3+4+5+6}{6}}=3.5\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/85913408feb11576c17e1e9827dade2177170d96)
不過如上所說明的,3.5雖是「點數」的期望值,但卻不屬於可能結果中的任一個,沒有可能擲出此點數。
如果
是在機率空間
中的隨機變數,那麼它的期望值
的定義是:
![{\displaystyle \operatorname {E} (X)=\int _{\Omega }X\,\mathrm {d} P}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d7ab8efaa4e279814bdb7dcbd04aa231796f105e)
並不是每一個隨機變數都有期望值的,因為有的時候上述積分不存在。
如果兩個隨機變數的分布相同,則它們的期望值也相同。
如果
是離散的隨機變數,輸出值為
,和輸出值相應的機率為
(機率和為1)。
若級數
絕對收斂,那麼期望值
是一個無限數列的和。
![{\displaystyle \operatorname {E} (X)=\sum _{i}p_{i}x_{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bd6194ffb672c07744b9caf5017b157ba185b005)
如果
是連續的隨機變數,存在一個相應的機率密度函數
,若積分
絕對收斂,那麼
的期望值可以計算為:
。
是針對於連續的隨機變數的,與離散隨機變數的期望值的算法同出一轍,由於輸出值是連續的,所以把求和改成了積分。
- 期望值
是線性函數。
![{\displaystyle \operatorname {E} (aX+bY)=a\operatorname {E} (X)+b\operatorname {E} (Y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ed96ccf472b5892511395baa91e424f95313cbdf)
和
為在同一機率空間的兩個隨機變數(可以獨立或者非獨立),
和
為任意實數。
- 一般的說,一個隨機變數的函數的期望值並不等於這個隨機變數的期望值的函數。
![{\displaystyle \operatorname {E} (g(X))=\int _{\Omega }g(x)f(x)\,\mathrm {d} x\neq g(\operatorname {E} (X))}](https://wikimedia.org/api/rest_v1/media/math/render/svg/206d6f783756fcc3bb9cd7bba270bbaf3d97f559)
- 在一般情況下,兩個隨機變數的積的期望值不等於這兩個隨機變數的期望值的積。
- 當
成立時,隨機變數
和
的共變異數為0,又稱它們不相關。特別的,當兩個隨機變數獨立時,它們共變異數(若存在)為0。
在統計學中,估算變量的期望值時,經常用到的方法是重複測量此變量的值,再用所得數據的平均值來估計此變量的期望值。
在機率分布中,期望值和變異數或標準差是一種分布的重要特徵。
在古典力學中,物體重心的算法與期望值的算法十分近似。
在賭博中,期望值又稱預期值、長期效果值、合理價值、期待值,都能完全貼和,而其計算的方式為:
(期望值)
勝的機率
獲勝的籌碼
輸的機率
輸掉的籌碼
期望值也可以通過變異數計算公式來計算變異數:
![{\displaystyle \operatorname {Var} (X)=\operatorname {E} (X^{2})-\operatorname {E} (X)^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/80f625bd51f996dfae9510b3ff85a21c6c4a0091)
(平方的期望值減期望值的平方)
在機器學習領域的文章中,常常在期望值算子的下標中指定
服從的分布。例如:隨機變數
的函數
的期望值常常寫成這樣:
![{\displaystyle \mathbb {E} _{x\sim p(x)}[g(x)]=\int _{-\infty }^{\infty }p(x)g(x)\,\mathrm {d} x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d127efe967085a1e5d6ac242baf3f59152c0d5b5)
是
的機率密度函數。