Les propriétés de l'espérance

Linéarité de l'espérance

L’espérance mathématique d’une variable aléatoire (v.a) possède quelques propriétés que nous allons présenter. Elles n’ont rien de compliqué. C’est la version probabiliste de la linéarité de la moyenne que vous avez vue en classe de seconde.

Ci-dessous \(X\) et \(Y\) seront des v.a de \(Ω\) dans \(\mathbb{R},\) \(Ω\) étant un univers fini non vide.

 

Positivité

Si \(X \geqslant 0,\) alors \(E(X) \geqslant 0.\)

C’est évident. Si les notes d’une interrogation sont comprises entre 0 et 20, il n’y a aucun risque pour que la moyenne de la classe soit négative !

 

Additivité

L’espérance mathématique d’une somme de v.a est égale à la somme des espérances.

\(E(X + Y) = E(X) + E(Y)\)

Exemple. Soit la loi de probabilité suivie par \(X.\)

\(x_i\) 3 4 5
\(P(X = x_i)\) 0,2 0,5 0,3

Soit la loi de probabilité suivie par \(Y.\)

\(y_i\) 2 3 4
\(P(Y = y_i)\) 0,4 0,5 0,1

Il apparaît de \(E(X)\) \(=\) \(0,2 × 3 + 0,5 × 4 + 0,3 × 5\) c’est-à-dire 4,1.

Calculons de même \(E(Y)\) et nous trouvons 2,7.

À quoi est égale \(E(X + Y)\) ? Tout simplement à \(4,1 + 2,7 = 6,8.\)

Cette propriété sert à démontrer l’espérance de la loi binomiale.

Soit \(X\) une v.a qui suit une loi de Bernoulli (1 pour succès et 0 pour échec). La probabilité de succès est \(p.\)

\(E(X)\) \(=\) \(0 × (1 – p) + 1 × p\) \(=\) \(p.\)

La loi binomiale modélise la répétition d’une même loi de Bernoulli.

Si la v.a \(Y\) suit une loi binomiale \(\mathscr{B}(n\, ;p)\) alors, d’après la propriété d’additivité :

\(E(Y)\) \(=\) \(E(X_1) + E(X_2) + … + E(X_n)\) \(=\) \(np.\)

 

Homogénéité

Soit \(λ\) un réel.

\(E(λ X) = λ E(X)\)

Exemple. Un commerçant vend des accessoires sur un marché. Les prix hors taxe sont soit de 1 €, soit de 2 €, soit de 5 €. La probabilité qu’un client achète un produit de tel ou tel prix est donnée ci-dessous :

\(x_i\) 1 2 5
\(P(X = x_i)\) 0,6 0,3 0,1

\(E(X) = 1,7\) €.

Ajoutons la TVA à \(20\%.\) Le tableau devient ceci :

\(x’_i\) 1,2 2,4 6
\(P(X’ = x’_i)\) 0,6 0,3 0,1

\(E(X’) = 1,2 × 06 + 2,4 × 0,3 + 6 \times 0,1 = 2,04\)

Nous trouvons le même résultat en posant \(1,7 × 1,2 = 2,04\) €.

 

Linéarité

La combinaison des deux dernières propriétés se traduit par la propriété de linéarité.

\(E(aX + bY) = aE(X) + bE(Y)\)

Remarque : la variance ne possède pas cette propriété de linéarité.

Exemple : un courtier en assurances travaille du lundi au vendredi ainsi que le samedi matin. En semaine, le nombre de contrats qu’il fait signer chaque jour obéit à la loi de probabilité suivante :

\(x_i\) 0 1 2 3
\(P(X = x_i)\) 0,2 0,4 0,3 0,1

Le samedi, la loi de probabilité s’énonce comme suit :

\(x’_i\) 0 1 2
\(P(X = x’_i)\) 0,1 0,6 0,3

Combien de contrats peut-il espérer faire signer dans la semaine ?

Du lundi au vendredi, l’espérance quotidienne de contrats signés s’établit à \(E(X) = 1,3.\)

Le samedi, l’espérance est \(E(X’) = 1,2.\)

Soit \(Y\) le nombre de signatures hebdomadaires.

D’après la propriété de linéarité de l’espérance, \(E(Y) = 5E(X)+ E(X’) = 7,5.\)

 

Indépendance

Vous savez que si deux évènements \(A\) et \(B\) sont indépendants, alors \(P(A) \times P(B) = P(A ∩ B).\)

On peut transposer cette règle aux espérances de deux v.a : si ces dernières sont indépendantes, alors \(E(X × Y)\) \(=\) \(E(X) × E(Y)\)

La propriété s'étend d'ailleurs à plus de deux v.a.