Maths-cours

COURS & EXERCICES DE MATHÉMATIQUES

Close

Variables aléatoires - Loi des grands nombres

1. Opérations sur les variables aléatoires

Dans toute cette partie, on se place dans un univers fini Ω \Omega et on considère deux variables aléatoires XX et YY définies sur cet univers.

Définition (Somme de variables aléatoires)

Si la variable aléatoire X X prend les valeurs xi x_i (avec 1in 1 \leqslant i \leqslant n) et si la variable aléatoire Y Y prend les valeurs yj y_j (avec 1jm 1 \leqslant j \leqslant m ), la variable aléatoire X+Y X+Y est la valeur aléatoire :

  • qui prend toutes les valeurs possibles de xi+yj x_i+y_j pour 1in 1 \leqslant i \leqslant n et 1jm 1 \leqslant j \leqslant m

  • telle que la probabilité p(X+Y=s) p(X+Y=s) est la somme des probabilités de tous les événements (X=xi)(Y=yj) (X =x_i) \cap (Y =y_j) pour lesquels xi+yj=s x_i+y_j=s .

Exemple

On lance deux pièces de monnaie parfaitement équilibrées et on considère les variables aléatoires :

  • X qui prend la valeur 0 si la première pièce tombe sur « Pile » et la valeur 1 si la pièce tombe sur « Face »

  • Y qui prend la valeur 1 si la première pièce tombe sur « Pile » et la valeur 2 si la pièce tombe sur « Face »

La variable aléatoire X+Y X+Y peut alors prendre les valeurs 0+1=1 0+1=1 , 0+2=1+1=2 0+2= 1+1=2 et 1+2=3 1+2 = 3 .

Les probabilités sont :
p(X+Y=1)=p((X=0)(Y=1)) p(X+Y=1) = p((X=0) \cap (Y=1))
p(X+Y=1)=14 \phantom{p(X+Y=1)}= \dfrac{ 1 }{ 4 } si les lancers sont indépendants.


p(X+Y=2)=p((X=0)(Y=2))+p((X=2)(Y=1)) p(X+Y=2) = p((X=0) \cap (Y=2)) + p((X=2) \cap (Y=1))
p(X+Y=1)=14+14=12 \phantom{p(X+Y=1)}= \dfrac{ 1 }{ 4 } + \dfrac{ 1 }{ 4 } =\dfrac{ 1 }{ 2 } si les lancers sont indépendants.


p(X+Y=3)=p((X=1)(Y=2)) p(X+Y=3) = p((X=1) \cap (Y=2))
p(X+Y=1)=14 \phantom{p(X+Y=1)}= \dfrac{ 1 }{ 4 } si les lancers sont indépendants.

Définition (Produit par un réel)

Soit a a et b b deux nombres réels et X X la variable aléatoire qui prend les valeurs xi x_i (pour1in 1 \leqslant i \leqslant n).

La variable aléatoire Z=aX+b Z= aX + b est la variable aléatoire qui prend les valeurs zi=axi+b z_i = ax_i + b avec les probabilités p(Z=zi)=p(X=xi) p( Z = z_i) = p(X=x_i)

Exemple

On lance un dé à 6 faces non truqué. On note XX la variable aléatoire qui donne le résultat du dé. La loi de probabilité de X est donnée par le tableau :

xi x_i 1 2 3 4 5 6
p(X=xi) p(X=x_i) 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 }

La variable aléatoire Z=2X+1 Z=2X + 1 fait correspondre à chaque lancer le double du résultat du dé augmenté de 1 ; sa loi est la suivante :
zi z_i 3 5 7 9 11 13
p(Z=zi) p(Z=z_i) 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 } 16 \dfrac{ 1 }{ 6 }

Définition (Variables aléatoires indépendantes)

Soit X X une variable aléatoire prenant les valeurs xi x_i (avec 1in 1 \leqslant i \leqslant n) et Y Y une variable aléatoire prenant les valeurs yj y_j (avec 1jm 1 \leqslant j \leqslant m ).

On dit que les variables aléatoires XX et YY sont indépendantes si et seulement si, pour tout ii (1in 1 \leqslant i \leqslant n) et tout jj (1jm 1 \leqslant j \leqslant m), les événements (X=xi) (X=x_i) et (Y=yj) (Y=y_j) sont indépendants.

Remarque

D'après la définition de l'indépendance vue en Première, cela signifie que pour tout ii ( 1in 1 \leqslant i \leqslant n) et tout jj ( 1jm 1 \leqslant j \leqslant m) :

p((X=xi)(Y=yj))=p((X=xi)×p(Y=yj) p((X=x_i) \cap (Y=y_j)) = p((X=x_i) \times p(Y=y_j)

Propriété

Soient XX et YY deux variables aléatoires définies sur Ω \Omega et a a un nombre réel, alors :

  • E(X+Y)=E(X)+E(Y) E(X+Y) = E(X)+E(Y)

  • E(aX+b)=aE(X)+b E( aX+b ) = aE(X) +b

Exemples

  • Si l'on reprend le premier exemple (lancer de deux pièces), la loi de XX est :

    xi x_i 0 1
    p(X=xi) p(X=x_i) 0,5 0,5 0,5 0,5

    La loi de YY est :
    yi y_i 1 2
    p(Y=yi) p(Y=y_i) 0,5 0,5 0,5 0,5
    Et la loi de Z=X+Y Z = X+Y est :
    zi z_i 1 2 3
    p(Z=zi) p(Z=z_i) 0,25 0,25 0,5 0,5 0,25 0,25
    On a alors :

    E(X)=0×0,5+1×0,5=0,5 E(X) = 0 \times 0,5 + 1 \times 0,5 = 0,5
    E(Y)=1×0,5+2×0,5=1,5 E(Y) = 1 \times 0,5 + 2 \times 0,5 = 1,5

    et :
    E(X+Y)=1×0,25+2×0,5+3×0,25=2 E(X+Y) = 1 \times 0,25 + 2 \times 0,5 + 3 \times 0,25= 2

    Par conséquent E(X+Y)=E(X)+E(Y) E(X+Y) = E(X)+E(Y).

  • Si l'on reprend le second exemple (lancer d'un dé), on a :

    E(X)=1×16+2×16 E(X) = 1 \times \dfrac{ 1 }{ 6 } + 2 \times \dfrac{ 1 }{ 6 } + 3×16+4×16+5×16 +\ 3 \times \dfrac{ 1 }{ 6 } + 4 \times \dfrac{ 1 }{ 6 } + 5 \times \dfrac{ 1 }{ 6 }  + 6×16=3,5\ + \ 6 \times \dfrac{ 1 }{ 6 } = 3,5

    et :
    E(2X+1)=3×16+5×16+7×16 E(2X+1) = 3 \times \dfrac{ 1 }{ 6 } + 5 \times \dfrac{ 1 }{ 6 } + 7 \times \dfrac{ 1 }{ 6 } + 9×16+11×16+13×16=8 +\ 9 \times \dfrac{ 1 }{ 6 } + 11 \times \dfrac{ 1 }{ 6 } + 13 \times \dfrac{ 1 }{ 6 } = 8

    Donc E(2X+1)=2E(X)+1 E(2X+1) = 2E(X)+1.

Propriété)

Soient XX et YY deux variables aléatoires indépendantes définies sur Ω \Omega  :et a a un nombre réel, alors :

  • V(X+Y)=V(X)+V(Y) V(X+Y) = V(X)+V(Y)

Soient XX une variable aléatoire définie sur Ω \Omega et a a et b b deux nombres réels, alors :

  • V(aX+b)=a2V(X) V( aX+b) = a^2 V(X)

Remarque

Comme l'écart-type σ \sigma est égal à la racine carrée de la variance on a (si XX et YY sont indépendantes) :

  • σ(X+Y)=σ(X)2+σ(Y)2 \sigma (X+Y) = \sqrt{ \sigma (X) ^2+ \sigma (Y)^2 }

  • σ(aX+b)=aσ(X) \sigma ( aX+b) = \left| a \right| \sigma (X)

2. Concentration - Loi des grands nombres

Définition

Un échantillon d'une loi de probabilité est une liste de variables aléatoires identiques et indépendantes X1,X2,,Xn X_1, X_2, \cdots , X_n qui suivent toutes cette loi.

Exemple

On réalise l'expérience qui consiste à tirer, au hasard, une boule d'un sac contenant cinq boules numérotées de 1 à 5 et on considère la variable aléatoire égale au numéro de la boule tirée.

Si on effectue nn fois cette expérience (avec remise) et si l'on suppose les tirages indépendants, on crée un échantillon de nn variables aléatoires suivant une loi uniforme sur l'ensemble {1;2;3;4;5} \left\{ 1; 2; 3; 4; 5 \right\}.

Définition (Moyenne d'un échantillon)

Si X1,X2,,Xn X_1, X_2, \cdots , X_n est un échantillon d'une loi de probabilité, la moyenne (ou moyene empirique) de cet échantillon est la variable aléatoire définie par :

Mn=X1+X2++Xnn M_n = \dfrac{ X_1 + X_2 + \cdots +X_n }{ n }

Exemple

Par exemple on lance 60 fois un dé . On obtient 11 fois la face « 6 ».
Le nombre moyen de « 6 » obtenus à chaque lancer est 1160 \dfrac{ 11 }{ 60 } (moyenne empirique) alors que l'espérance d'obtenir un « 6 » à un lancer est 16 \dfrac{ 1 }{ 6} .

Propriété

Soit X1,X2,,Xn X_1, X_2, \cdots , X_n est un échantillon d'une loi de probabilité d'espérance μ \mu , de variance V V et d'écart-type σ \sigma , alors, l'espérance mathématique, la variance et l'écart-type de la moyenne Mn M_n sont :

E(Mn)=μV(Mn)=Vnσ(Mn)=σn \begin{aligned} E(M_n) &= \mu \\ \\ V(M_n) &= \dfrac{ V }{ n } \\ \\ \sigma (M_n) &= \dfrac{ \sigma }{ \sqrt{ n } } \\ \end{aligned}

Exemple

On reprend l'exemple du tirage d'une boule parmi six numérotées de 1 à 6.

Un calcul simple montre que, pour chaque tirage, l'espérance est μ=3 \mu =3 , la variance V=2 V=2 et l'écart-type σ=2 \sigma = \sqrt{ 2 } .

Si l'on effectue nn tirages et que l'on désigne par Mn M_n la moyenne des numéros tirés, Mn M_n suit une loi de paramètres :

  • E(Mn)=3 E(M_n) = 3

  • V(Mn)=2n V(M_n) = \dfrac{ 2 }{ n }

  • σ(Mn)=2n \sigma (M_n) = \sqrt{ \dfrac{ 2 }{ n } }

Remarque

On remarque que, quand la taille nn de l'échantillon augmente, l'espérance mathématique de la moyenne ne change pas tandis que sa variance et son écart-type diminuent. Cette observation sera détaillée par la suite.

Propriété (Inégalité de Bienaymé-Tchebychev)

Soit XX une variable aléatoire d'espérance mathématique μ \mu et d'écart-type σ \sigma .

Pour tout nombre réel α \alpha strictement positif :

p(Xμα)σ2α2p( \left| X - \mu \right| \geqslant \alpha ) \leqslant \dfrac{ \sigma ^2 }{ \alpha ^2 }

Remarque

On rappelle que Xμ \left| X - \mu \right| représente la distance entre XX et μ \mu .

Intuitivement, l'inégalité de Bienaymé-Tchebychev signifie donc que la probabilité que XX prenne des valeurs éloignées de son espérance est faible (notamment si son écart-type est faible).

Exemple

L'espérance de gain à un jeu est de 10 euros et l'écart-type de 1 euro.
On cherche à minorer la probabilité que le gain soit compris dans l'intervalle ]5 ; 15[ ] 5~;~15[ en utilisant l'inégalité de Bienaymé-Tchebychev.

Soit XX la variable aléatoire représentant le gain. Ce gain est compris dans l'intervalle ]5 ; 15[ ] 5~;~15[ si et seulement si X10<5 \left| X - 10 \right| < 5 .
Or cet événement X10<5 \left| X - 10 \right| < 5 est l'événement contraire de X105 \left| X - 10 \right| \geqslant 5 et d'après l'inégalité de Bienaymé-Tchebychev :

p(X105)1252=0,04 p \left( \left| X - 10 \right| \geqslant 5 \right) \leqslant \dfrac{ 1 ^2 }{ 5 ^2 } = 0,04

Donc la probabilité que le gain soit compris dans l'intervalle ]5 ; 15[ ] 5~;~15[ est supérieure à 10,04=0,96 1 - 0,04 = 0,96 .

Propriété (Inégalité de concentration)

Soit (X1,X2,,Xn) (X_1, X_2, \cdots , X_{n}) un échantillon d'une loi de probabilité d'espérance mathématique μ \mu et d'écart-type σ \sigma .
On note Mn M_n la moyenne empirique définie par Mn=X1+X2++Xnn M_n = \frac {X_1+X_2+ \cdots +X_n}{n}.

Pour tout réel strictement positif ε \varepsilon  :

p(Mnμε)σ2nε2 p\left( \left|M_{n} - \mu \right| \geqslant \varepsilon \right) \leqslant \dfrac{ \sigma ^2 }{ n \varepsilon ^2 } .

Démonstration

On applique l'inégalité de Bienaymé-Tchebychev à Mn M_n en tenant compte du fait que E(Mn)=μ E(M_n) = \mu et σ(Mn)=σn \sigma (M_n) = \dfrac{ \sigma }{\sqrt{ n } } .

Propriété (Loi faible des grands nombres)

Soit (X1,X2,,Xn) (X_1, X_2, \cdots , X_{n}) un échantillon d'une loi de probabilité d'espérance mathématique μ \mu et de moyenne empirique Mn M_n .
Alors, pour tout réel ε>0 \varepsilon > 0  :

limn+p(Mnμε)=0 \lim\limits_{ n \rightarrow +\infty } p\left( \left|M_{n} - \mu \right| \geqslant \varepsilon \right)=0.

Remarque

Le résultat précédent signifie que la probabilité que la moyenne empirique s'éloigne de l'espérance mathématique devient très faible pour les grands échantillons.