Techniques et concepts de l'entreprise, de la finance et de l'économie 
(et fondements mathématiques)

Démonstrations sur le maximum de vraisemblance

logo

 

 

 

 

 

 

 

 

 

 

Deux calculs fondés sur le maximum de vraisemblance

Le sujet traité ici n’est certes pas le plus opérationnel de ce site web ; il illustre une notion de statistique inférentielle, celle du maximum de vraisemblance. Mais ne le boycottez pas pour autant et voyons de quoi il s’agit…

Rappelons d’abord la problématique.

Nous observons un échantillon aléatoire afin d’y étudier une variable aléatoire. Supposons que la loi de probabilité théorique suivie par celle-ci sur l’ensemble de la population soit connue. Cette loi, qui peut être discrète ou continue, est soit construite autour d’un seul paramètre (loi de Poisson…) soit plus souvent de deux (loi normale…). Ceux-ci sont ESTIMÉS à partir de statistiques réalisées sur l’échantillon pour la bonne raison que les vrais paramètres sont inconnus.

Parmi les techniques qui visent à déterminer les meilleurs estimateurs, le maximum de vraisemblance est particulièrement usité. La démarche consiste à dériver la fonction de vraisemblance afin de trouver le paramètre pour lequel la loi de probabilité semble la mieux à même de résumer la distribution de la population puis à s’assurer qu’il s’agit bien d’un maximum.

Voyons deux exemples d’estimateurs obtenus par la méthode du maximum de vraisemblance.

La loi exponentielle

loi exponentielle

À partir d’un paramètre unique, on détermine l’espérance et l’écart-type qui sont tous deux les inverses de λ.

Supposons n observations.

vraisemblance de la loi exponentielle

En écrivant ceci de façon plus ramassée…

vraisemblance de la loi exponentielle

Il est toujours plus pratique de maximiser le logarithme de la vraisemblance. Comme la fonction logarithme est strictement croissante, le maximum de la vraisemblance est aussi celui de la log-vraisemblance.

log-vraisemblance

Dérivons cette fonction par rapport à λ.

dérivée

La suite des opérations est bien sûr l’annulation de la dérivée.

annulation de la dérivée

On voit bien que λ doit être l’inverse de la moyenne. La  dérivée seconde a pour expression -n / λ². Donc elle est négative. L'extremum est bien un maximum.

La loi normale (estimateur de la moyenne)

Il faut démontrer que la moyenne calculée sur l’échantillon est bien le meilleur estimateur de la moyenne sur la population.

La formule de la densité de probabilité est :

loi normale

Donc, la fonction de vraisemblance n’est autre que…

vraisemblance de la loi normale

Préférons une autre expression plus pratique à travailler.

seconde expression

La log-vraisemblance peut alors s’écrire…

log-vraisemblance de la loi normale

Cette fois-ci, nous sommes en présence de deux paramètres et nous déterminons une dérivée partielle. Si l’on dérive par rapport à m afin de connaître la valeur pour laquelle cette dérivée s’annule, on pose :

dérivée

étape

Cette dernière expression nous servira plus loin pour calculer la dérivée seconde. Poursuivons.

annulation de la dérivée

Comme on pouvait s'y attendre, on aboutit à la définition de la moyenne :

moyenne

La dérivée seconde, toujours par rapport à m, est égale à –n / σ². Elle est bien négative.

 

maximum d evraisemblance

 

© JY Baudot - Droits d'auteur protégés