Terminale ∼ Spécialité mathématique
Sommes de variables aléatoires
Opération sur les variables aléatoires Définitions
Une variable aléatoire réelle $X$ définie sur un univers probabilisé $\Omega$ est une fonction définie sur $\Omega$ à valeurs dans $\mathbb{R}$.
On peut noter : $ \begin{array}{rccl} X: & \Omega & \longrightarrow & \mathbb{R} \\ & \omega & \longmapsto & X(\omega) \\ \end{array} $

Soit $X$ une variable aléatoire prenant les valeurs $x_i$, pour $0\leq i\leq n$, et soient $p_i$ $\in$ $[0\,;1]$ les probabilités associées à ces événements.
L'espérance de la variable aléatoire $X$, notée $E(X)$, est la moyenne des valeurs $x_i$ pondérées par leurs probabilités $p_i$.
$E(X)=x_1\times p_1 + x_2\times p_2 + \cdots + x_n\times p_n$ ou encore $\displaystyle{E(X)=\sum_{i=0}^n x_i\times p_i.}$
Voici un jeu de hasard : on lance un dé à six faces équilibré. Si le joueur obtient un 6 il remporte 30 euros. Sinon, s'il obtient un 1, il perd 9 euros et dans les autres cas, il perd 6 euros.
Est-il avantageux de jouer à ce jeu ? On note $X$ la variable aléatoire qui donne le gain obtenu par le joueur. Voici le tableau donnant sa loi de probabilité :
k $30$ $-6$ $-9$
$P(X=k)$ $\dfrac{1}{6}$ $\dfrac{4}{6}$ $\dfrac{1}{6}$

Pour savoir si il est avantageux de jouer à ce jeu, il nous faut déterminer le gain « moyen » pour un grand nombre de parties, à savoir l'espérance de $X$.
Or, $E(X)$ $=$ $30\times\dfrac{1}{6}-6\times\dfrac{4}{6}-9\times\dfrac{1}{6}$ $=$ $-\dfrac{3}{6}$ $=$ $-\dfrac{1}{2}$.
L'espérance (c'est-à-dire le gain moyen) étant négative, il n'est pas avantageux de participer à ce jeu.

Soit $n$ un entier naturel non nul.
Soit $X$ une variable aléatoire prenant les valeurs $x_i$, pour $0\leq i\leq n$, et soient $p_i\in[0;1]$ les probabilités associées à ces événements. Soit $E(X)$ l'espérance de $X$.

• La variance de la variable aléatoire $X$, noté $V(X)$, est la moyenne des carrés des écarts à la moyenne. Cet indicateur représente la dispersion de $X$.
$V(X)=p_1(x_1-E(X))^2+p_2(x_2-E(X))^2+\cdots+p_n(x_n-E(X))^2$
ou encore $\displaystyle{V(X)=\sum_{i=1}^n p_i(x_i-E(X))^2.}$
• On appelle écart-type de $X$ le réel noté $\sigma(X)$ défini par : $\sigma(X)=\sqrt{V(X)}.$
Soit $X$ une variable aléatoire correspondant au gain lors d'une partie d'un jeu d'argent. Alors $E(X)$ représente le gain moyen et $\sigma(X)$ représente l'écart moyen par rapport à $E(X)$.

Voici un autre jeu : on lance une pièce de monnaie, si on obtient pile on gagne 10 euros et si on obtient face on perd 10 euros. En notant $X$ la variable aléatoire associé au gain, on représente la loi de probabilité de $X$ à l'aide du tableau ci-dessous :
$x_i$ $10$ $-10$
$P(X=x_i)$ $\dfrac{1}{2}$ $\dfrac{1}{2}$

Nous avons alors :
$E(X)$ $=$ $\dfrac{1}{2}\times 10+\dfrac{1}{2}\times(-10)$ $=$ $0$,

$V(X)$ $=$ $\dfrac{1}{2}(10-0)^2+\dfrac{1}{2}(-10-0)^2$ $=$ $100$, donc $\sigma(X)$ $=$ $10$.
Ce que l'on peut interpréter en disant que le gain moyen est situé en moyenne, à plus ou moins 10 euros de $0$ euro.

Soient $p\in[0;1]$ et $X$ une variable aléatoire suivant la loi de Bernoulli de paramètre $p$. On a alors :
$E(X)$ $=$ $p$ et $V(X)$ $=$ $p(1-p)$.
Preuve
On peut représenter la loi $X$ par le tableau suivant :
$x_i$ $0$ $1$
$P(X=x_i)$ $1-p$ $p$

Ainsi :
$E(X)$ $=$ $0\times(1-p)+1\times p$ $=$ $p$
et
$V(X)$ $=$ $(1-p)(0-E(X))^2+p(1-E(X))^2$
$=$ $(1-p)(0-p)^2+p(1-p)^2$
$=$ $(1-p)((-p)^2+p(1-p))$
$=$ $(1-p)( p^2+p-p^2 )$
$=$ $p(1-p)$.
Addition Voici les notes d'un élève à ses quatre DST trimestriels : 8 - 11 - 7 - 6.
Sa moyenne $m$ est donc : $m=$ $\dfrac{1}{4}\left( 8 + 11 + 7 + 6\right)$ $=$ $8$.
L'enseignant de cet élève décide d'augmenter toutes les notes de 3 points.
La nouvelle moyenne $m'$ vaut alors : $m'=$ $\dfrac{1}{4}\left( 11 + 14 + 10 + 9\right)$ $=$ $11$.
Ainsi, nous voyons que le fait d'augmenter chacune des notes de 3 points a pour conséquence de faire augmenter la moyenne de 3 points également.
Ce qui nous amène à la propriété suivante :
Soit $X$ une variable aléatoire d'espérance $E(X)$. Soit $a$ un réel. Alors $X+a$ est également une variable aléatoire et son espérance vérifie : $E(X+a)$ $=$ $E(X)+a.$
Preuve
Soit $X$ une variable aléatoire prenant les valeurs $x_i$, pour $0\leq i\leq n$, et soient $p_i\in[0;1]$ les probabilités associées à ces événements.
Pour tout entier $i$ compris entre $1$ et $n$, on a : $X=x_i$ $\Longleftrightarrow$ $X+a = x_i + a.$ Et donc : $P(X=x_i)$ $=$ $P(X+a = x_i + a)$.

On a alors les deux tableaux suivants:
$k$ $x_1$ $x_2$ $\cdots$ $x_n$
$P(X=k)$ $p_1$ $p_2$ $\cdots$ $p_n$
$l$ $x_1+a$ $x_2+a$ $\cdots$ $x_n+a$
$P(X+a=l)$ $p_1$ $p_2$ $\cdots$ $p_n$

Ainsi :

$E(X+a)$ $=$ $p_1\times(x_1+a)+p_2\times(x_2+a)+\cdots+p_n(x_n+a)$
$=$ $p_1x_1+p_1a+p_2x_2+p_2a+\cdots+p_nx_n+p_na$
$=$ $(p_1x_1+p_2x_2+\cdots+p_nx_n)+(p_1+p_2+\cdots+p_n)a$
$=$ $E(X)+1\times a$
$=$ $E(X)+a.$
Considérons maintenant un élève qui a eu deux notes : 8 et 12.
Sa moyenne est 10, et l'écart-type est de 2 (chacune des notes étant situées à 2 points de la moyenne 10).
Imaginons maintenant que chacune de ces deux notes sont diminuées de 5 points. Elles deviennent alors : 3 et 7.
La nouvelle moyenne est donc de 5 points inférieures à la précédente, mais nous voyons que les écarts par rapport à la moyenne sont toujours égaux à 2.
Il est intuitif que si toutes les notes sont toutes décalées d'un même nombre alors les écarts restent identiques.
Soit $X$ une variable aléatoire de variance $V(X)$. Soit $a$ un réel. Alors $X+a$ est également une variable aléatoire et sa variance vérifie : $V(X+a)$ $=$ $V(X).$ Et donc : $\sigma(X+a)$ $=$ $\sigma(X).$
Preuve
Soit $X$ une variable aléatoire prenant les valeurs $x_i$, pour $0\leq i\leq n$, et soient $p_i\in[0;1]$ les probabilités associées à ces événements. En reprenant les deux tableaux de la preuve précédente, on a :
$V(X+a)$ $=$ $p_1(x_1+a-E(X+a))^2+p_2(x_2+a-E(X+a))^2+\cdots+p_n(x_n+a-E(X+a))^2$
$=$ $p_1(x_1+a-E(X)-a)^2+p_2(x_2+a-E(X)-a)^2+\cdots+p_n(x_n+a-E(X)-a)^2$
$=$ $p_1(x_1-E(X))^2+p_2(x_2-E(X))^2+\cdots+p_n(x_n-E(X))^2$
$=$ $V(X).$

On a alors :
$\sigma(X+a)$ $=$ $\sqrt{V(X+a)}$ $=$ $\sqrt{V(X)}$ $=$ $\sigma(X)$.

Soient $X$ et $Y$ deux variables aléatoires définies sur un même univers probabilisé $\Omega$.
On définit la variable aléatoire $Z$ pour tout élément $\omega\in\Omega$ par $Z(\omega)$ $=$ $X(\omega)+Y(\omega)$.
La variable aléatoire $Z$ s'appelle alors la somme des variables aléatoires $X$ et $Y$ et on la note $Z$ $=$ $X+Y$.

Soient $X$ et $Y$ deux variables aléatoires définies sur un même univers probabilisé $\Omega$. On a :
Pour $n$ variables aléatoires $X_1$, $X_2$, $\ldots$, $X_n$ on peut définir la variable aléatoire somme $X_1+X_2+\dots+X_n$, et par récurrence on obtient la propriété suivante :
Soient $n$ un entier naturel non nul et $X_1$, $X_2$, $\ldots$, $X_n$ des variables aléatoires définies sur un même univers probabilisé $\Omega$. On a alors :
On peut noter également :

$\displaystyle{ E\left( \sum_{i=1}^n X_i\right)}$ $=$ $\displaystyle{\sum_{i=1}^nE(X_i)}$ et $\displaystyle{ V\left( \sum_{i=1}^n X_i\right)}$ $=$ $\displaystyle{\sum_{i=1}^n V(X_i)}$. Multiplication Si un élève possède une moyenne de 8/10 il semble évident que sa moyenne sur 20 est de 16, ou encore de 80/100, ou bien de 4/5.
Soit $X$ une variable aléatoire d'espérance $E(X)$. Soit $a$ un réel non nul. Alors $a\times X$ est également une variable aléatoire et son espérance vérifie : $E(aX)$ $=$ $aE(X).$
Preuve
Soit $X$ une variable aléatoire prenant les valeurs $x_i$, pour $0\leq i\leq n$, et soient $p_i\in[0;1]$ les probabilités associées à ces événements.
Pour tout entier $i$ compris entre $0$ et $n$, puisque $a\neq0$, on a : $X=x_i$ $\Longleftrightarrow$ $aX=a x_i.$ et donc : $P(X=x_i)$ $=$ $P(aX=ax_i)$.

On obtient le tableau suivant :
$k$ $ax_1$ $ax_2$ $\cdots$ $ax_n$
$P(aX=k)$ $p_1$ $p_2$ $\cdots$ $p_n$

Ainsi :
$E(aX)$ $=$ $p_1\times(ax_1)+p_2\times(ax_2)+\cdots+p_n\times(ax_n)$
$=$ $a(p_1x_1)+a(p_2x_2)+\cdots+a(p_nx_n)$
$=$ $a\left( p_1x_1+p_2x_2+\cdots+p_nx_n\right)$
$=$ $aE(X).$
Si deux notes sur 10 ont un écart de 3 points, par exemple 4 et 7, alors ces notes calculées sur 20, c'est à dire 8 et 14, ont un écart de 6 points.
Soit $X$ une variable aléatoire de variance $V(X)$. Soit $a$ un réel non nul. Alors $a\times X$ est également une variable aléatoire et sa variance vérifie : $V(aX)$ $=$ $a^2V(X).$ Et donc : $\sigma(aX)$ $=$ $|a|\sigma(X).$
Preuve
Soit $X$ une variable aléatoire prenant les valeurs $x_i$, pour $0\leq i\leq n$, et soient $p_i\in[0;1]$ les probabilités associées à ces événements.
En reprenant le tableau de la preuve précédente.
$ V(aX)$ $=$ $p_1(ax_1-E(aX))^2+p_2\times(ax_2-E(aX))^2+\cdots+p_n(ax_n-E(aX))^2$
$=$ $p_1(ax_1-aE(X))^2+p_2\times(ax_2-aE(X))^2+\cdots+p_n(ax_n-aE(X))$
$=$ $p_1(a(x_1-E(X))^2+p_2(a(x_2-E(X))^2+\cdots+p_n(a(x_n-E(X))^2$
$=$ $p_1a^2(x_1-E(X))^2+p_2a^2(x_2-E(X))^2+\cdots+p_na^2(x_n-E(X))^2$
$=$ $a^2\left( p_1(x_1-E(X))^2+p_2(x_2-E(X))^2+\cdots+p_n(x_n-E(X))^2\right)$
$=$ $a^2V(X).$

Nous avons donc :
$\sigma(aX)$ $=$ $\sqrt{V(aX)}$ $=$ $\sqrt{a^2V(X)}$ $=$ $\sqrt{a^2}\sqrt{V(X)}$ $=$ $|a|\sigma(X)$. Soit $X$ une variable aléatoire discrète d'espérance $\mu$ et d'écart-type $s$.
Déterminer $E\left(\dfrac{X-\mu}{s}\right)$ ainsi que $\sigma\left(\dfrac{X-\mu}{s}\right)$.
$E\left(\dfrac{X-\mu}{s}\right)$ $=$ $E\left(\dfrac{1}{s}(X-\mu)\right)$
$=$ $\dfrac{1}{s}E(X-\mu)$
$=$ $\dfrac{1}{s}\left( E(X)-\mu \right)$
$=$ $\dfrac{1}{s}(\mu-\mu)$
$=$ $0$.


$V\left(\dfrac{X-\mu}{s}\right)$ $=$ $V\left(\dfrac{1}{s}(X-\mu)\right)$
$=$ $\dfrac{1}{s^2}V(X-\mu)$
$=$ $\dfrac{1}{s^2}V(X)$
$=$ $\dfrac{1}{s^2}\sigma(X)^2$
$=$ $1$.

Ainsi : $\sigma\left(\dfrac{X-\mu}{\sigma}\right)$ $=$ $\sqrt{V\left(\dfrac{X-\mu}{\sigma}\right)}$ $=$ $\sqrt{1}$ $=$ $1$.
Échantillon d'une loi de probabilité
Soient $n$ un entier naturel non nul et $X$ une variable aléatoire définie sur un univers probabilisé $\Omega$.
Un échantillon de taille $n$ de la loi de $X$ est une liste $(X_1\,;X_2\,;\cdots\,;X_n)$ de variables aléatoires identiques et indépendantes suivant la même loi que $X$.
Une usine d'emboutillage remplie des bouteilles d'eau pétillante avec un certain volume. On considère la variable aléatoire $V$ qui a toute bouteille lui associe la quantité versée par la chaîne de production en mL.
On s'intéresse à $100$ bouteilles à remplir que l'on numérote de $1$ jusqu'à $100$. On note $V_i$ la variable aléatoire qui associe à la bouteille n°$i$ la quantité de boisson qu'elle va recevoir.
Les réglages de la ligne de production font que l'on peut considérer que les variables aléatoires $V_i$ sont identiques et indépendantes et suivent toutes la loi de $V$.
Ainsi, $(V_1\,;V_2\,;\cdots\,;V_n)$ est un échantillon de la loi de $V$.
Soient $n$ un entier naturel non nul, $X$ une variable aléatoire et $(X_1\,;X_2\,;\cdots\,;X_n)$ un échantillon de taille $n$ de la loi de $X$.
En reprenant l'exemple de l'embouteillage précédent on peut s'intéresser à la variable somme qui modélise la quantité totale de boisson versée pour l'échantillon, ou à la variable moyenne qui modélise la moyenne de boisson versée dans une bouteille.
Si on veut utiliser concrétement ces variables aléatoires (pour le responsable de production par exemple) il faut connaître leur espérance et leur variance.

Soient un entier naturel non nul et $S_n$ la variable aléatoire somme associée à un échantillon et de taille $n$ d'une variable aléatoire $X$. On a alors :
Preuve
On applique les formules suivantes :

$\displaystyle{ E\left( \sum_{i=1}^n X_i\right)}$ $=$ $\displaystyle{\sum_{i=1}^nE(X_i)}$ et $\displaystyle{ V\left( \sum_{i=1}^n X_i\right)}$ $=$ $\displaystyle{\sum_{i=1}^n V(X_i)}$.

En effet, en notant $(X_1\,;X_2\,;\cdots\,;X_n)$ l'échantillon de la loi de $X$ on a :

$E(S_n)$ $=$ $\displaystyle{ E\left( \sum_{i=1}^n X_i\right)}$ $=$ $\displaystyle{\sum_{i=1}^nE(X_i)}$ $=$ $\displaystyle{\sum_{i=1}^nE(X)}$ $=$ $nE(X)$.

$V(S_n)$ $=$ $\displaystyle{ V\left( \sum_{i=1}^n \right)}$ $=$ $\displaystyle{\sum_{i=1}^nV(X_i)}$ $=$ $\displaystyle{\sum_{i=1}^nV(X)}$ $=$ $nV(X)$.

Et puisque $\sigma(S_n)$ $=$ $\sqrt{V(S_n)}$, on a bien $\sqrt{S_n}$ $=$ $\sqrt{nV(X)}$ $=$ $\sqrt{n}\sqrt{V(X)}$ $=$ $\sqrt{n}\sigma(X)$.

Soient un entier naturel non nul et $M_n$ la variable aléatoire moyenne associée à un échantillon et de taille $n$ d'une variable aléatoire $X$. On a alors :
Preuve
On applique les formules $E(aX)$ $=$ $aE(X)$ et $V(aX)$ $=$ $a^2V(X)$ aux résultats de la propriété précédente.
En notant $S_n$ la variable aléatoire somme associée au même échantillon on a $M_n$ $=$ $\dfrac{1}{n}S_n$ et :

$E(M_n)$ $=$ $E\left(\dfrac{1}{n}S_n\right)$ $=$ $\dfrac{1}{n}E(S_n)$ $=$ $\dfrac{1}{n}\times nE(X)$ $=$ $E(X)$.

$V(M_n)$ $=$ $V\left(\dfrac{1}{n}S_n\right)$ $=$ $\dfrac{1}{n^2}V(S_n)$ $=$ $\dfrac{1}{n^2}\times nV(X)$ $=$ $\dfrac{1}{n}V(X)$.

On conclut sur l'écart-type en appliquant la fonction racine carrée à l'égalité précédente.
Application à la loi binomiale
Soient $n$ un entier naturel non nul, $p\in[0;1]$ et $X$ une variable aléatoire suivant la loi binomiale de paramètres $n$ et $p$. On a alors :
Preuve
Soit $Y$ la variable aléatoire suivant la loi de Bernoulli de paramètre $p$.
Soient $X_1$, $X_2$, $\cdots$, $X_n$ les $n$ variables aléatoires indépendantes suivant la loi de $Y$ telles que : $X$ $=$ $X_1+X_2+\cdots+X_n$.
On a : $E(X)$ $=$ $E(X_1+X_2+\cdots+X_n)$ $=$ $nE(Y)$ $=$ $np$.
Et : $V(X)$ $=$ $V(X_1+X_2+\cdots+X_n)$ $=$ $nV(Y)$ $=$ $np(1-p)$.
Ce qui nous donne : $\sigma(X)$ $=$ $\sqrt{V(X)}$ $=$ $\sqrt{np(1-p)}$.