Techniques et concepts de l'entreprise, de la finance et de l'économie 
(et fondements mathématiques)

Les convergences

logo

 

 

 

 

 

 

 

 

 

 

Convergences en statistiques

Sur cette page sont résumés quelques principes fondamentaux, pour ne pas dire fondateurs, des statistiques inférentielles et des processus stochastiques. Certes, ils intéressent davantage les étudiants que les statisticiens d’entreprise (tout comme le langage binaire n’est pas le quotidien des informaticiens et le principe du moteur à explosion n’est pas connu de tous les automobilistes). Mais un autre principe est qu’une pratique qui oublie la théorie se traduit tôt ou tard par une convocation dans le bureau d’un chef de service qui s’interroge sur la qualité des études qui lui sont remises…

Nous verrons ici les modes de convergence les plus utiles en statistiques.

La convergence presque sûre (ou convergence forte)

Une suite de variables aléatoires (v.a) Xn converge presque sûrement vers une valeur X si :

convergence presque sûre

NB : X peut être une constante ou une v.a.

Par exemple, si l’on joue à pile ou face une infinité de fois (bon courage), la limite de la suite de la proportion de « piles » est égale à 0,5. La probabilité d’obtenir cette limite est de 1. Pour autant, la limite de 0,5 est théorique et pour cause… Donc, il n’est pas exclu que cette probabilité soit légèrement inférieure à 1 et c’est pourquoi l'on emploie l’adverbe « presque ».

Un autre exemple illustrera l’importance du « presque ». Si l’on choisit un nombre réel entre 0 et 2, quelle est la probabilité que ce soit 1 ? Étant donné qu’il y a une infinité de réels entre 0 et 2, la probabilité de choisir 1 ou d’ailleurs n’importe quel autre nombre est… nulle ! Et pourtant...

Nous verrons plus bas d’autres formes de convergences mais celle-ci est la plus forte de toutes. Ainsi, deux fonctions qui convergent presque sûrement ont un risque nul d’être différentes pour une valeur donnée. Certes, ce n’est pas la convergence certaine, mathématique, d’une suite vers une limite ou de deux suites entre elles. Mais c’est le mode de convergence qui s’en approche le plus.

La convergence en probabilité

Elle est forcément vérifiée si la précédente l’est mais les conditions sont moins draconiennes.

Xn converge en probabilité si, pour tout ε > 0 (et notamment si ε est infiniment petit), on a :

convergence en probabilité

On la note aussi plim Xn = X et on peut la réécrire de la façon suivante :

convergence en probabilité

Donc, une v.a converge en probabilité vers une autre si la suite de leurs différences tend vers zéro. Si n représente un échantillon assez important, on est alors à peu près sûr que Xn est très proche d’une valeur X.

La loi faible des grands nombres de Bernoulli est établie à partir de ce type de convergence et de l’inégalité de Bienaymé-Tchebychev. Elle permet de prouver qu’une moyenne observée sur un échantillon suffisamment grand se rapproche de celle de la population, moyennant quelques hypothèses. La loi forte des grands nombres utilise quant à elle la convergence presque sûre. Elle est particulièrement féconde en implications théoriques.

A contrario, pour montrer qu'il existe une convergence en probabilité, il suffit d'établir que l'espérance et la variance de (Xn – X) tendent vers 0 lorsque n tend vers l'infini.

La convergence en moyenne quadratique

Elle se formule ainsi :

convergence en moyenne quadratique

Cette convergence est d’ordre 2 et elle est plus forte que celle d’ordre 3, elle-même plus forte que celle d’ordre 4, etc. Bien que non comparables à « presque sûre », ces convergences sont plus fortes que la convergence en probabilité.

La convergence en loi

Il s’agit du cas où une suite de lois de probabilités de v.a Xn converge vers la loi de X.

convergence en loi

Si les v.a sont discrètes, on a :

convergence en loi (VA discrètes)

Ces définitions impliquent que les modes de convergence vus plus haut sont vérifiés. Du coup, on l’appelle aussi « convergence faible » puisqu’il s’agit là du type le moins restrictif. Ainsi, ce concept est plus général mais moins puissant que les autres : une loi de probabilités converge globalement vers une autre qui lui ressemble. Un exemple bien connu des statisticiens est la convergence d’une loi de Student vers la loi normale lorsque le nombre de degrés de liberté tend vers l'infini. L’indispensable théorème central-limite est une autre célébrité qui repose sur la convergence en loi. Mentionnons aussi l’exemple d’une loi binomiale appliquée à une probabilité très faible qui converge vers une loi de Poisson d’emploi plus pratique. En revanche, lorsque la probabilité d'occurrence est plus élevée, elle converge vers une loi normale moyennant quelques condidtions (théorème de Moivre-Laplace).

 

convergence

 

© JY Baudot - Droits d'auteur protégés