Comme d'habitude, on a un article sur Wikipedia et une vidéo de l'Académie Khan.
In [1]:
from IPython.display import HTML, YouTubeVideo
def IFrame(url, width=800, height=400):
return HTML("<iframe src='{0}' width={1} height={2}></iframe>".format(url, width, height))
IFrame("http://fr.m.wikipedia.org/wiki/Loi_des_grands_nombres")
Out[1]:
In [2]:
YouTubeVideo("Af6Lm9OV2Dc")
Out[2]:
In [3]:
IFrame("http://fr.m.wikipedia.org/wiki/Loi_des_grands_nombres#Loi_faible_des_grands_nombres")
Out[3]:
Pour prouver cette loi, il nous faudra l'Inégalité de Bienaymé-Techebychev :
$$P(|Y-E(Y)| \geqslant \varepsilon) \leqslant \frac{V(Y)}{\varepsilon^2}$$Et pour prouver ça, on aurait besoin de l'Inégalite de Markov. Mais une chose à la fois.
On va introduire $\bar{X}_n$ comme suit :
$$\begin{aligned} Y &= \bar{X}_n \\ \bar{X}_n &= \frac{X_1 + X_2 + \cdots + X_n}{n} \\ E(\bar{X}_n) &= E(X) \quad &\text{(ci-dessous)} \\ V(\bar{X}_n) &= \frac{V(X)}{n} \quad &\text{(dans le notebook « Écart type »)} \end{aligned}$$Ainsi, on a :
$$P\left(\left|\frac{X_1 + X_2 + \cdots + X_n}{n} - E(X)\right|\geqslant \varepsilon\right) \leqslant \frac{V(X)}{n\varepsilon^2}$$Si on veut diviser $\varepsilon$ par 2, il faut multiplier $n$ par 4 !
Et plusieurs détails pour me convaincre :
$$\begin{aligned} E(\bar{X}_n) &= E\left[\frac{X_1 + X_2 + \cdots + X_n}{n}\right] \\ &= \frac{E(X_1) + E(X_2) + \cdots + E(X_n)}{n} \\ &= \frac{nE(X)}{n} \\ &= E(X) \end{aligned}$$Comme d'habitude, on a un article sur Wikipedia. Mail il utilise une notation qui n'est m'est pas familière. J'ai trouvé plusieurs explications sur la page anglaise. Soit $Z$ une variable aléatoire positive ou nulle.
$$P(Z \geqslant a) \leqslant \frac{E(Z)}{a}$$On défine $1_X$ comme
$$\begin{aligned} 1_X &= 1 \quad &\text{quand X se produit} \\ 1_X &= 0 \quad &\text{quand X ne se produit pas} \end{aligned}$$On peut voir que
$$\begin{aligned} \forall \omega\in\Omega, Z(\omega) &\geqslant a1_{Z(\omega) \geqslant a} \\ E(Z) &\geqslant E(a1_{Z \geqslant a}) \\ &\geqslant aP(Z \geqslant a) \\ P(Z \geqslant a) &\leqslant \frac{E(Z)}{a} \end{aligned}$$Soit $phi$ une function positive ou nulle, et croissante, telle que si $x \geq y$, $\phi(x) \geq \phi(y)$. Soit $Z$ égal à $\phi(Y)$, et $a$ égal à $\phi(b)$. Donc
$$P(\phi(Y) \geqslant \phi(b)) \leqslant \frac{E(\phi(Y))}{\phi(b)}$$quand $\phi(b) \neq 0$. Mais $x \geq y$ quand $\phi(x) \geq \phi(y)$, et donc $P(\phi(x) \geq \phi(y)) \leqslant P(x \geq y)$. Cela nous donne
$$P(Y \geqslant b) \leqslant \frac{E(\phi(Y))}{\phi(b)}$$Soit $Y = X-E(X)$, $b = \varepsilon$ et $\phi(x) = x^2$.
$$\begin{aligned} P(X-E(X) \geqslant \varepsilon) &\leqslant \frac{E\left[(X-E(X))^2\right]}{\varepsilon^2} \\ &\leqslant \frac{Var(X)}{\varepsilon^2} \end{aligned}$$La voilà, mais elle est vraiment plus difficile à prouver :
In [4]:
IFrame("http://fr.m.wikipedia.org/wiki/Loi_forte_des_grands_nombres")
Out[4]: