Terminale ∼ Spécialité mathématique
Sommes de variables aléatoires
1Opération sur les variables aléatoires 1.1Définitions Definition 1
Une variable
aléatoire
réelle
XX définie sur un univers probabilisé Ω\Omega est une
fonction
définie sur Ω\Omega à valeurs dans
R\mathbb{R}.

On peut noter :
X:ΩRωX(ω) \begin{array}{rccl} X: & \Omega & \longrightarrow & \mathbb{R} \\ & \omega & \longmapsto & X(\omega) \\ \end{array}
Definition 2
Soit XX une variable aléatoire prenant les valeurs
xix_i,
pour 0in0\leq i\leq n, et soient
pip_i
\in
[0;1][0\,;1]
les probabilités associées à ces événements.
L'espérance
de la variable aléatoire XX, notée
E(X)E(X),
est la
moyenne
des valeurs xix_i
pondérées
par leurs probabilités
pip_i.

E(X)=x1×p1+x2×p2++xn×pnE(X)=x_1\times p_1 + x_2\times p_2 + \cdots + x_n\times p_n
ou encore
E(X)=i=0nxi×pi.\displaystyle{E(X)=\sum_{i=0}^n x_i\times p_i.}
Exercice 1 Voici un jeu de hasard : on lance un dé à six faces équilibré. Si le joueur obtient un 6 il remporte 30 euros. Sinon, s'il obtient un 1, il perd 9 euros et dans les autres cas, il perd 6 euros.
Est-il avantageux de jouer à ce jeu ?
Correction
On note XX la variable aléatoire qui donne le
gain
obtenu par le joueur. Voici le tableau donnant sa
loi de probabilité :
k 3030 6-6 9-9
P(X=k)P(X=k) 16\dfrac{1}{6} 46\dfrac{4}{6} 16\dfrac{1}{6}

Pour savoir si il est avantageux de jouer à ce jeu, il nous faut déterminer le gain «
moyen
» pour un grand nombre de parties, à savoir
l'espérance de XX.

Or, E(X)E(X) ==
30×166×469×1630\times\dfrac{1}{6}-6\times\dfrac{4}{6}-9\times\dfrac{1}{6}
==
36-\dfrac{3}{6}
==
12-\dfrac{1}{2}.

L'espérance (c'est-à-dire le
gain moyen
) étant
négative,
il
n'est pas avantageux
de participer à ce jeu.
Definition 3
Soit nn un entier naturel non nul.
Soit XX une variable aléatoire prenant les valeurs xix_i, pour 0in0\leq i\leq n, et soient pi[0;1]p_i\in[0;1] les probabilités associées à ces événements. Soit E(X)E(X)
l'espérance
de XX.

• La
variance
de la variable aléatoire XX, noté
V(X)V(X),
est la
moyenne des carrés des écarts à la moyenne.
Cet indicateur représente
la dispersion
de XX.
V(X)=p1(x1E(X))2+p2(x2E(X))2++pn(xnE(X))2V(X)=p_1(x_1-E(X))^2+p_2(x_2-E(X))^2+\cdots+p_n(x_n-E(X))^2
ou encore
V(X)=i=1npi(xiE(X))2.\displaystyle{V(X)=\sum_{i=1}^n p_i(x_i-E(X))^2.}

• On appelle
écart-type
de XX le réel noté
σ(X)\sigma(X)
défini par :
σ(X)=V(X).\sigma(X)=\sqrt{V(X)}.
Remark 1 Soit XX une variable aléatoire correspondant au gain lors d'une partie d'un jeu d'argent. Alors E(X)E(X) représente le
gain moyen
et σ(X)\sigma(X) représente
l'écart moyen
par rapport à
E(X)E(X).


Voici un autre jeu : on lance une pièce de monnaie, si on obtient pile on gagne 10 euros et si on obtient face on perd 10 euros. En notant XX la variable aléatoire associé au gain, on représente la loi de probabilité de XX à l'aide du tableau ci-dessous :
xix_i
1010
10-10
P(X=xi)P(X=x_i)
12\dfrac{1}{2}
12\dfrac{1}{2}

Nous avons alors :
E(X)E(X)
==
12×10+12×(10)\dfrac{1}{2}\times 10+\dfrac{1}{2}\times(-10)
==
00,


V(X)V(X)
==
12(100)2+12(100)2\dfrac{1}{2}(10-0)^2+\dfrac{1}{2}(-10-0)^2
==
100100,
donc
σ(X)\sigma(X)
==
1010.

Ce que l'on peut interpréter en disant que le gain moyen est
situé en moyenne,
à plus ou moins 10 euros de 00 euro.
2 0
Property 1
Soient p[0;1]p\in[0;1] et XX une variable aléatoire suivant la loi de
Bernoulli
de paramètre
pp.
On a alors :
E(X)E(X)
==
pp
et
V(X)V(X)
==
p(1p)p(1-p).
Preuve
On peut représenter la loi XX par le tableau suivant :
xix_i
00
11
P(X=xi)P(X=x_i)
1p1-p
pp

Ainsi :
E(X)E(X) ==
0×(1p)+1×p0\times(1-p)+1\times p
==
pp

et
V(X)V(X) ==
(1p)(0E(X))2+p(1E(X))2(1-p)(0-E(X))^2+p(1-E(X))^2
==
(1p)(0p)2+p(1p)2(1-p)(0-p)^2+p(1-p)^2
==
(1p)((p)2+p(1p))(1-p)((-p)^2+p(1-p))
==
(1p)(p2+pp2)(1-p)( p^2+p-p^2 )
==
p(1p)p(1-p).
1 0
1.2Addition Exemple 1 Voici les notes d'un élève à ses quatre DST trimestriels : 8 - 11 - 7 - 6.
Sa moyenne mm est donc : m=m=
14(8+11+7+6)\dfrac{1}{4}\left( 8 + 11 + 7 + 6\right)
==
88.

L'enseignant de cet élève décide d'augmenter toutes les notes de 3 points.
La nouvelle moyenne mm' vaut alors : m=m'=
14(11+14+10+9)\dfrac{1}{4}\left( 11 + 14 + 10 + 9\right)
==
1111.

Ainsi, nous voyons que le fait d'augmenter chacune des notes de 3 points a pour conséquence de faire augmenter la moyenne de
3 points également.

Ce qui nous amène à la propriété suivante : Property 2
Soit XX une variable aléatoire d'espérance E(X)E(X). Soit aa un réel. Alors X+aX+a est également une
variable aléatoire
et son espérance vérifie :
E(X+a)E(X+a)
==
E(X)+a.E(X)+a.
Preuve
Soit XX une variable aléatoire prenant les valeurs xix_i, pour 0in0\leq i\leq n, et soient pi[0;1]p_i\in[0;1] les probabilités associées à ces événements.
Pour tout entier ii compris entre 11 et nn, on a :
X=xiX=x_i
\Longleftrightarrow
X+a=xi+a.X+a = x_i + a.
Et donc : P(X=xi)P(X=x_i) ==
P(X+a=xi+a)P(X+a = x_i + a).


On a alors les deux tableaux suivants:
kk x1x_1 x2x_2 \cdots xnx_n
P(X=k)P(X=k)
p1p_1
p2p_2
\cdots
pnp_n
ll
x1+ax_1+a
x2+ax_2+a
\cdots
xn+ax_n+a
P(X+a=l)P(X+a=l)
p1p_1
p2p_2
\cdots
pnp_n

Ainsi :

E(X+a)E(X+a) ==
p1×(x1+a)+p2×(x2+a)++pn(xn+a)p_1\times(x_1+a)+p_2\times(x_2+a)+\cdots+p_n(x_n+a)
==
p1x1+p1a+p2x2+p2a++pnxn+pnap_1x_1+p_1a+p_2x_2+p_2a+\cdots+p_nx_n+p_na
==
(p1x1+p2x2++pnxn)+(p1+p2++pn)a(p_1x_1+p_2x_2+\cdots+p_nx_n)+(p_1+p_2+\cdots+p_n)a
==
E(X)+1×aE(X)+1\times a
==
E(X)+a.E(X)+a.
Exemple 2 Considérons maintenant un élève qui a eu deux notes : 8 et 12.
Sa moyenne est
10,
et l'écart-type est de
2
(chacune des notes étant situées à
2
points de la moyenne
10
).
Imaginons maintenant que chacune de ces deux notes sont diminuées de 5 points. Elles deviennent alors : 3 et 7.
La nouvelle moyenne est donc de 5 points inférieures à la précédente, mais nous voyons que les écarts par rapport à la moyenne sont toujours égaux à 2.
Il est intuitif que si toutes les notes sont toutes décalées d'un même nombre alors les écarts restent
identiques.
Property 3
Soit XX une variable aléatoire de variance V(X)V(X). Soit aa un réel. Alors X+aX+a est également une variable aléatoire et sa
variance
vérifie :
V(X+a)V(X+a)
==
V(X).V(X).
Et donc :
σ(X+a)\sigma(X+a)
==
σ(X).\sigma(X).
Preuve
Soit XX une variable aléatoire prenant les valeurs xix_i, pour 0in0\leq i\leq n, et soient pi[0;1]p_i\in[0;1] les probabilités associées à ces événements. En reprenant les deux tableaux de la preuve précédente, on a :
V(X+a)V(X+a) ==
p1(x1+aE(X+a))2+p2(x2+aE(X+a))2++pn(xn+aE(X+a))2p_1(x_1+a-E(X+a))^2+p_2(x_2+a-E(X+a))^2+\cdots+p_n(x_n+a-E(X+a))^2
==
p1(x1+aE(X)a)2+p2(x2+aE(X)a)2++pn(xn+aE(X)a)2p_1(x_1+a-E(X)-a)^2+p_2(x_2+a-E(X)-a)^2+\cdots+p_n(x_n+a-E(X)-a)^2
==
p1(x1E(X))2+p2(x2E(X))2++pn(xnE(X))2p_1(x_1-E(X))^2+p_2(x_2-E(X))^2+\cdots+p_n(x_n-E(X))^2
==
V(X).V(X).

On a alors :
σ(X+a)\sigma(X+a)
==
V(X+a)\sqrt{V(X+a)}
==
V(X)\sqrt{V(X)}
==
σ(X)\sigma(X).
0 1
Definition 4
Soient XX et YY deux variables aléatoires définies sur un même univers probabilisé Ω\Omega.
On définit la variable aléatoire ZZ pour tout élément ωΩ\omega\in\Omega par
Z(ω)Z(\omega)
==
X(ω)+Y(ω)X(\omega)+Y(\omega).

La variable aléatoire ZZ s'appelle alors la
somme
des variables aléatoires XX et YY
et on la note
ZZ
==
X+YX+Y.
Property 4
Soient XX et YY deux variables aléatoires définies sur un même univers probabilisé Ω\Omega. On a :
Remark 2 Pour nn variables aléatoires X1X_1, X2X_2, \ldots, XnX_n on peut définir la variable aléatoire somme
X1+X2++XnX_1+X_2+\dots+X_n,
et par
récurrence
on obtient la propriété suivante : Property 5
Soient nn un entier naturel non nul et X1X_1, X2X_2, \ldots, XnX_n des variables aléatoires définies sur un même univers probabilisé Ω\Omega. On a alors :
Remark 3 On peut noter également :

E(i=1nXi)\displaystyle{ E\left( \sum_{i=1}^n X_i\right)}
==
i=1nE(Xi)\displaystyle{\sum_{i=1}^nE(X_i)}
et
V(i=1nXi)\displaystyle{ V\left( \sum_{i=1}^n X_i\right)}
==
i=1nV(Xi)\displaystyle{\sum_{i=1}^n V(X_i)}.
1.3Multiplication Exemple 3 Si un élève possède une moyenne de 8/10 il semble évident que sa moyenne sur 20 est de
16,
ou encore de
80
/100, ou bien de
4
/5. Property 6
Soit XX une variable aléatoire d'espérance E(X)E(X). Soit aa un réel non nul. Alors a×Xa\times X est également une
variable aléatoire
et son espérance vérifie :
E(aX)E(aX)
==
aE(X).aE(X).
Preuve
Soit XX une variable aléatoire prenant les valeurs xix_i, pour 0in0\leq i\leq n, et soient pi[0;1]p_i\in[0;1] les probabilités associées à ces événements.
Pour tout entier ii compris entre 00 et nn, puisque a0a\neq0, on a : X=xiX=x_i \Longleftrightarrow
aX=axi.aX=a x_i.
et donc : P(X=xi)P(X=x_i) ==
P(aX=axi)P(aX=ax_i).


On obtient le tableau suivant :
kk ax1ax_1 ax2ax_2 \cdots axnax_n
P(aX=k)P(aX=k)
p1p_1
p2p_2
\cdots
pnp_n

Ainsi :
E(aX)E(aX) ==
p1×(ax1)+p2×(ax2)++pn×(axn)p_1\times(ax_1)+p_2\times(ax_2)+\cdots+p_n\times(ax_n)
==
a(p1x1)+a(p2x2)++a(pnxn)a(p_1x_1)+a(p_2x_2)+\cdots+a(p_nx_n)
==
a(p1x1+p2x2++pnxn)a\left( p_1x_1+p_2x_2+\cdots+p_nx_n\right)
==
aE(X).aE(X).
Exemple 4 Si deux notes sur 10 ont un écart de 3 points, par exemple 4 et 7, alors ces notes calculées sur 20, c'est à dire 8 et 14, ont un écart de
6
points. Property 7
Soit XX une variable aléatoire de variance V(X)V(X). Soit aa un réel non nul. Alors a×Xa\times X est également une variable aléatoire et sa variance vérifie :
V(aX)V(aX)
==
a2V(X).a^2V(X).
Et donc :
σ(aX)\sigma(aX)
==
aσ(X).|a|\sigma(X).
Preuve
Soit XX une variable aléatoire prenant les valeurs xix_i, pour 0in0\leq i\leq n, et soient pi[0;1]p_i\in[0;1] les probabilités associées à ces événements.
En reprenant le tableau de la preuve précédente.
V(aX) V(aX) ==
p1(ax1E(aX))2+p2×(ax2E(aX))2++pn(axnE(aX))2p_1(ax_1-E(aX))^2+p_2\times(ax_2-E(aX))^2+\cdots+p_n(ax_n-E(aX))^2
==
p1(ax1aE(X))2+p2×(ax2aE(X))2++pn(axnaE(X))p_1(ax_1-aE(X))^2+p_2\times(ax_2-aE(X))^2+\cdots+p_n(ax_n-aE(X))
==
p1(a(x1E(X))2+p2(a(x2E(X))2++pn(a(xnE(X))2p_1(a(x_1-E(X))^2+p_2(a(x_2-E(X))^2+\cdots+p_n(a(x_n-E(X))^2
==
p1a2(x1E(X))2+p2a2(x2E(X))2++pna2(xnE(X))2p_1a^2(x_1-E(X))^2+p_2a^2(x_2-E(X))^2+\cdots+p_na^2(x_n-E(X))^2
==
a2(p1(x1E(X))2+p2(x2E(X))2++pn(xnE(X))2)a^2\left( p_1(x_1-E(X))^2+p_2(x_2-E(X))^2+\cdots+p_n(x_n-E(X))^2\right)
==
a2V(X).a^2V(X).

Nous avons donc :
σ(aX)\sigma(aX)
==
V(aX)\sqrt{V(aX)}
==
a2V(X)\sqrt{a^2V(X)}
==
a2V(X)\sqrt{a^2}\sqrt{V(X)}
==
aσ(X)|a|\sigma(X).
Exercice 2 Soit XX une variable aléatoire discrète d'espérance μ\mu et d'écart-type ss.
Déterminer E(Xμs)E\left(\dfrac{X-\mu}{s}\right) ainsi que σ(Xμs)\sigma\left(\dfrac{X-\mu}{s}\right).
Correction
E(Xμs)E\left(\dfrac{X-\mu}{s}\right) ==
E(1s(Xμ))E\left(\dfrac{1}{s}(X-\mu)\right)
==
1sE(Xμ)\dfrac{1}{s}E(X-\mu)
==
1s(E(X)μ)\dfrac{1}{s}\left( E(X)-\mu \right)
==
1s(μμ)\dfrac{1}{s}(\mu-\mu)
==
00.


V(Xμs)V\left(\dfrac{X-\mu}{s}\right) ==
V(1s(Xμ))V\left(\dfrac{1}{s}(X-\mu)\right)
==
1s2V(Xμ)\dfrac{1}{s^2}V(X-\mu)
==
1s2V(X)\dfrac{1}{s^2}V(X)
==
1s2σ(X)2\dfrac{1}{s^2}\sigma(X)^2
==
11.

Ainsi : σ(Xμσ)\sigma\left(\dfrac{X-\mu}{\sigma}\right) ==
V(Xμσ)\sqrt{V\left(\dfrac{X-\mu}{\sigma}\right)}
==
1\sqrt{1}
==
11.
2Échantillon d'une loi de probabilité Definition 5
Soient nn un entier naturel non nul et XX une variable aléatoire définie sur un univers probabilisé Ω\Omega.
Un
échantillon
de taille nn de la loi de XX est une
liste
(X1;X2;;Xn)(X_1\,;X_2\,;\cdots\,;X_n)
de variables aléatoires
identiques et indépendantes
suivant la même
loi
que XX.
Exemple 5 Une usine d'emboutillage remplie des bouteilles d'eau pétillante avec un certain volume. On considère la variable aléatoire VV qui a toute bouteille lui associe la quantité versée par la chaîne de production en mL.
On s'intéresse à 100100 bouteilles à remplir que l'on numérote de 11 jusqu'à 100100. On note ViV_i la variable aléatoire qui associe à la bouteille n°ii la quantité de boisson qu'elle va recevoir.
Les réglages de la ligne de production font que l'on peut considérer que les variables aléatoires ViV_i sont
identiques et indépendantes
et suivent toutes la loi de
VV.

Ainsi, (V1;V2;;Vn)(V_1\,;V_2\,;\cdots\,;V_n) est un
échantillon
de la loi de VV.
Definition 6
Soient nn un entier naturel non nul, XX une variable aléatoire et (X1;X2;;Xn)(X_1\,;X_2\,;\cdots\,;X_n) un
échantillon
de taille nn de
la loi de XX.
Exemple 6 En reprenant l'exemple de l'embouteillage précédent on peut s'intéresser à la variable somme qui modélise la quantité totale de boisson versée pour l'échantillon, ou à la variable moyenne qui modélise la moyenne de boisson versée dans une bouteille.
Si on veut utiliser concrétement ces variables aléatoires (pour le responsable de production par exemple) il faut connaître leur
espérance et leur variance.
0 0
Property 8
Soient un entier naturel non nul et SnS_n la variable aléatoire
somme
associée à un échantillon et de taille nn d'une variable aléatoire XX. On a alors :
Preuve
On applique les formules suivantes :

E(i=1nXi)\displaystyle{ E\left( \sum_{i=1}^n X_i\right)} ==
i=1nE(Xi)\displaystyle{\sum_{i=1}^nE(X_i)}
et V(i=1nXi)\displaystyle{ V\left( \sum_{i=1}^n X_i\right)} ==
i=1nV(Xi)\displaystyle{\sum_{i=1}^n V(X_i)}.


En effet, en notant (X1;X2;;Xn)(X_1\,;X_2\,;\cdots\,;X_n) l'échantillon de la loi de XX on a :

E(Sn)E(S_n) ==
E(i=1nXi)\displaystyle{ E\left( \sum_{i=1}^n X_i\right)}
==
i=1nE(Xi)\displaystyle{\sum_{i=1}^nE(X_i)}
==
i=1nE(X)\displaystyle{\sum_{i=1}^nE(X)}
==
nE(X)nE(X).


V(Sn)V(S_n) ==
V(i=1n)\displaystyle{ V\left( \sum_{i=1}^n \right)}
==
i=1nV(Xi)\displaystyle{\sum_{i=1}^nV(X_i)}
==
i=1nV(X)\displaystyle{\sum_{i=1}^nV(X)}
==
nV(X)nV(X).


Et puisque σ(Sn)\sigma(S_n) ==
V(Sn)\sqrt{V(S_n)},
on a bien Sn\sqrt{S_n} ==
nV(X)\sqrt{nV(X)}
==
nV(X)\sqrt{n}\sqrt{V(X)}
==
nσ(X)\sqrt{n}\sigma(X).
0 0
Property 9
Soient un entier naturel non nul et MnM_n la variable aléatoire
moyenne
associée à un échantillon et de taille nn d'une variable aléatoire XX. On a alors :
Preuve
On applique les formules E(aX)E(aX) ==
aE(X)aE(X)
et V(aX)V(aX) ==
a2V(X)a^2V(X)
aux résultats de la propriété précédente.
En notant SnS_n la variable aléatoire
somme
associée au même échantillon on a MnM_n ==
1nSn\dfrac{1}{n}S_n
et :

E(Mn)E(M_n) ==
E(1nSn)E\left(\dfrac{1}{n}S_n\right)
==
1nE(Sn)\dfrac{1}{n}E(S_n)
==
1n×nE(X)\dfrac{1}{n}\times nE(X)
==
E(X)E(X).


V(Mn)V(M_n) ==
V(1nSn)V\left(\dfrac{1}{n}S_n\right)
==
1n2V(Sn)\dfrac{1}{n^2}V(S_n)
==
1n2×nV(X)\dfrac{1}{n^2}\times nV(X)
==
1nV(X)\dfrac{1}{n}V(X).


On conclut sur l'écart-type en appliquant la fonction
racine carrée
à l'égalité précédente.
0 0
3Application à la loi binomiale Property 10ROC
Soient nn un entier naturel non nul, p[0;1]p\in[0;1] et XX une variable aléatoire suivant la loi binomiale de paramètres
nn et pp.
On a alors :
Preuve
Soit YY la variable aléatoire suivant la loi
de Bernoulli
de paramètre pp.

Soient X1X_1, X2X_2, \cdots, XnX_n les nn
variables aléatoires indépendantes
suivant la loi de YY
telles que :
XX
==
X1+X2++XnX_1+X_2+\cdots+X_n.

On a :
E(X)E(X)
==
E(X1+X2++Xn)E(X_1+X_2+\cdots+X_n)
==
nE(Y)nE(Y)
==
npnp.

Et :
V(X)V(X)
==
V(X1+X2++Xn)V(X_1+X_2+\cdots+X_n)
==
nV(Y)nV(Y)
==
np(1p)np(1-p).

Ce qui nous donne :
σ(X)\sigma(X)
==
V(X)\sqrt{V(X)}
==
np(1p)\sqrt{np(1-p)}.
0 0