Techniques et concepts de l'entreprise, de la finance et de l'économie 
(et fondements mathématiques)

La loi normale

logo

 

 

 

 

 

 

 

 

 

 

Loi de Laplace-Gauss

Voici la plus connue et la plus utile des lois de probabilité théoriques. Curieusement dénommée loi NORMALE (comme si les autres lois étaient des monstruosités), elle prend aussi le nom du génie Carl Friedrich Gauß (prononcez Gauss).

Elle est la plus célèbre parce qu’elle résume de nombreuses distributions statistiques observées. La représentation graphique de sa fonction de densité, continue et symétrique, a une forme très simple. C’est la fameuse courbe gaussienne, dite « en cloche », même si la ressemblance avec une véritable cloche laisse à désirer.

Elle est aussi la plus utile parce qu’elle permet l’utilisation de très nombreuses techniques statistiques lorsqu’elle est vérifiée.

Cette célébrité lui vaut d'être enseignée dès la terminale depuis 2012. D'ailleurs, si vous êtes en terminale, visitez plutôt les pages loi normale centrée réduite, intervalles associés à la loi normale centrée réduite, loi normale et calculatrices et loi normale avec geoGebra, davantage adaptées à votre programme que le texte qui suit...

Présentation

La majorité des statisticiens ne connaissent pas l'expression de la fonction de densité de probabilité. Mais si je ne l’indiquais pas, ça ne ferait pas sérieux. Alors…

Fonction de densité

m est l’espérance et sigma (σ) est l'écart-type. Si par exemple la variable aléatoire (v.a) X suit une loi normale d’espérance 10 et d’écart-type 1, on le note comme suit :

écriture d'une loi normale

Ces deux paramètres suffisent pour résumer une distribution observée. Si l’écart-type est petit par rapport à l'espérance, la courbe de densité ressemble à une légère boursouflure et plus il s’en approche, plus la courbe s’étire en hauteur comme une fleur de datura. Mais il n’est pas pratique d’utiliser cette loi telle quelle pour les prolongements statistiques (intervalles de confiance, vérification d’hypothèses…). On se sert alors de la loi centrée et réduite, c’est-à-dire que l’on utilise une variable auxiliaire. C'est le principe du changement de variable :

pour normale centrée réduite

On obtient alors une loi avec de nouveaux paramètres : l’espérance est nulle et l’écart-type est égal à 1. Retirer l’espérance consiste à CENTRER (par translation, la fonction de densité devient paire) et diviser par l’écart-type consiste à RÉDUIRE, c'est-à-dire à normaliser. Les valeurs prises par la fonction de densité de la loi centrée réduite sont indiquées dans des tables, du moins pour les valeurs positives.

L’expression de cette fonction centrée et réduite revêt une ligne plus épurée…

gaussienne centrée réduite

La courbe de densité de probabilité apparaît ainsi (réalisée sur ZSGCalc) :

Densité de loi normale

Elle est symétrique et l’essentiel des probabilités est contenu entre ± 2 écarts-types. Pour être plus exact, et je le précise car cet intervalle est très souvent utilisé, 95 % des valeurs prises par la v.a se trouvent entre plus ou moins 1,96 écart-type autour de la moyenne. C’est cette valeur que l’on utilise le plus souvent pour déterminer des intervalles de confiance bilatéraux.

Plus l’échantillon est grand, plus certaines lois (y compris discrètes) tendent à ressembler à la loi normale, notamment la loi hypergéométrique mais aussi la loi binomiale (théorème de Moivre-Laplace). L’utilité apparaît alors, entre autres, dans le cadre d’une comparaison de proportions. Une autre utilisation habituelle figure en page seuil de rentabilité probabilisé.

Nous avons vu que la distribution est symétrique. Cependant, une distribution ASYMÉTRIQUE peut parfois être « normalisée » en utilisant les logarithmes ou les racines carrées.

Des tests d'adéquation permettent de s’assurer qu’une distribution est suffisamment proche de cette loi théorique pour bénéficier de ses nombreux avantages. Ce sont les tests de normalité, qui lui sont spécifiques, éventuellement ceux de Kolmogorov-Smirnov et du khi², ainsi que le test visuel de la droite de Henry.

Propriétés

La loi normale possède des propriétés bienfaisantes.

D’abord, elle est additive : si n v.a indépendantes suivent chacune une loi normale, leur somme en fait de même (contrairement à la loi uniforme, par exemple). Soit deux v.a indépendantes X1 et X2 qui suivent deux lois normales caractérisées par des espérances m1 et m2 et par des écarts-types σ1 et σ2 :

addition de lois normales

Par ailleurs, la linéarisation d’une v.a X suivant une loi normale conduit également à une v.a Y = aX + b qui suit elle aussi une loi normale. C’est d’ailleurs cette propriété qui permet l'emploi de la version centrée réduite.

Théorème central-limite (TCL)

Cet indispensable théorème montre que les MOYENNES d'échantillons indépendants qui suivent une même loi de probabilité tendent vers une distribution normale pour peu qu'elles soient suffisamment nombreuses. C'est surtout cette propriété qui fait jouer à la loi normale un rôle central en statistique. Voir la page consacrée au TCL.

Régressions

Il est préférable que les résidus d’une régression simple ou multiple suivent une loi normale. Cette adéquation ne se visualise pas directement car, après avoir trié les résidus par ordre croissant, il faudrait les regrouper en classes et comparer l’histogramme avec une courbe de Gauss. Ceci manque un peu de rigueur. On utilise plutôt les tests de normalité ou la droite de Henry. Une non-normalité des résidus ne remet pas en cause l’équation du modèle mais elle empêche d’estimer les intervalles de confiance des paramètres.

Exemples : voir la page exercices corrigés sur la loi normale. Indispensable si vous n'avez pas tout compris de ce que j'ai tenté d'expliquer ici... Et pour une utilisation simple, rendez-vous sur les pages loi normale sur tableurs ou gestion des stocks et loi normale. La page inégalité de Bienaymé-Tchebychev donne les probabilités de se trouver dans quelques intervalles centrés autour de l'espérance.

Démonstration : voir la page calculs de maximums de vraisemblance qui montre que la moyenne relevée sur un échantillon aléatoire est le meilleur estimateur de la moyenne sur la population.

 

distribution normale

 

© JY Baudot - Droits d'auteur protégés