Les lois de probabilité

Introduction aux lois de probabilité et aux moments

Ah ! Que seraient les statistiques sans les lois de probabilité ? Un squelette duquel on aurait retiré les os ?

Si vous ignorez tout du sujet, rendez-vous en page d'initiation aux probabilités (niveau classe de seconde) et en page d'exercices d'initiation. Sinon, rappelons qu'une loi de probabilité formalise une distribution de probabilités associées à une variable aléatoire (v.a.) \(X,\) discrète ou continue, dans un espace probabilisé.

Pour établir une loi, il convient donc de déterminer les valeurs \(x_i\) pouvant être prises par \(X\) puis leur affecter des probabilités \(p_i = P(X = x_i).\)

 

Lois empiriques vs théoriques

Il existe une infinité de lois discrètes. Soit elles modélisent des jeux de hasard et sont établies mathématiquement, soit elles reposent sur des observations (les annales du bac regorgent de ces lois ad hoc).  Souvent, on croise des issues élémentaires et l'on représente les différents évènements par un arbre ou un tableau, du moins lorsque le nombre de valeurs pouvant être prises par la v.a. n'est pas trop élevé.

Mais la plupart du temps on rattache une distribution observée sur un échantillon à une distribution théorique supposée proche de celle de la population mère. Ce modèle permet alors de nombreuses possibilités statistiques (estimation d’intervalles de confiance, traitements divers utilisant les paramètres de ces lois, etc.). On s’assure de la bonne adéquation entre l'échantillon et la loi théorique par des tests non paramétriques.

La loi la plus simple est la loi uniforme (discrète ou continue) où tous les évènements sont équiprobables.

 

Quelques lois discrètes

Les évènements sont dénombrables et on représente leurs probabilités par des graphiques en barres (voir exemples en pages loi binomiale ou loi de Poisson). Les fonctions de répartition, qui représentent les cumuls de ces probabilités, sont donc des fonctions positives en escaliers et « plafonnent » à \(F(x) = 1.\)

La loi de Bernoulli : elle sert à modéliser la situation d’une simple alternative (oui/non, actif/inactif…).

La loi binomiale : elle modélise une suite d'épreuves de Bernoulli identiques et indépendantes, c’est-à-dire d’alternatives binaires dont la probabilité \(p\) reste constante au fil des épreuves, pour un nombre de tirages donné (ou schéma de Bernoulli). On peut alors connaître la probabilité d'obtenir \(k\) succès.

La loi hypergéométrique : contrairement à la précédente, un même évènement élémentaire ne peut être observé deux fois (après avoir été tirée une première fois, une carte n'est pas remise dans le jeu pour un deuxième tirage). La probabilité n’est donc pas constante au fur et à mesure des réalisations d'épreuves.

La loi géométrique : elle modélise une suite d'épreuves de Bernoulli indépendantes mais contrairement à la loi binomiale, le nombre de tirages est a priori inconnu et potentiellement infini. On probabilise le fait d'obtenir un premier succès pour un nombre de tirages donné. Voir aussi la page loi géométrique avec calculatrice. Si l'on cherche à connaître la probabilité d'obtenir un énième succès, on a recourt à la loi de Pascal.

La loi de Poisson : c’est celle des évènements rares. Et plus ceux-ci deviennent fréquents, plus la loi de Poisson converge vers une loi normale.

La loi de Benford : elle modélise une situation observée dans la réalité (le premier chiffre significatif est le plus souvent le 1, puis le 2...).

 

Lois continues

Bien que dans le domaine économique les relevés soient toujours discrets, et donc représentables par des diagrammes en bâtons, il est fréquent de « lisser » ceux-ci, surtout s’ils sont nombreux, en les résumant par une fonction continue dès lors que la v.a observée est continue. Par exemple, l’âge en est une, mais mesurée de façon discrète puis agrégée en tranches d’âges, avant que sa répartition dans la population fasse l’objet d’une approximation par une loi continue par un juste retour des choses…

L’équivalent du diagramme en bâtons est ici une courbe représentative d'une fonction de densité de probabilités. Ce site en regorge (voir les pages correspondant aux lois listées ci-dessous). Dans la mesure où l’on observe une répartition de probabilités, l’intégrale d’une fonction de densité (expression de la fonction de répartition) est égale à 1.

La fonction de densité est donc la dérivée d’une fonction de répartition qui admet une limite en 1 lorsque x tend vers l’infini et qui représente le cumul des probabilités.

  • La loi normale (de Gauss) : c’est la loi de probabilité la plus célèbre. Elle peut être purement descriptive, résumant au mieux la distribution d’une population à l’aide de deux paramètres (moyenne et écart-type) ou être utilisée en statistiques inférentielles en se fondant sur le théorème central-limite. On emploie alors une version centrée et réduite, c’est-à-dire d’espérance nulle et d’écart-type égal à 1.

  • La loi log-normale : c’est le logarithme népérien de la v.a. qui suit une loi normale.

  • La loi du khi² : c’est la loi que suit la somme des carrés de v.a indépendantes qui suivent chacune la loi normale centrée réduite. Elle ne sert pas à décrire directement une population ou des probabilités d’apparition de phénomènes mais elle est utilisée dans le cadre de plusieurs tests.

  • La loi de Fisher : elle est issue de la précédente dans la mesure où c’est la loi que suit le quotient de deux v.a indépendantes distribuées selon la loi du \(\chi^2\) et divisées par leur nombre de degrés de liberté. Cette loi est utilisée en statistique inférentielle.

  • La loi de Student : encore une loi employée dans les tests mais aussi pour les régressions. Un type particulier (à 1 degré de liberté) est la loi de Cauchy, véritable trou noir des lois de probabilité puisqu'elle ne possède ni espérance ni variance.

  • La loi de Weibull : cette loi modélise quant à elle des évènements réels, en l'occurrence des durées de vie d'appareils. En général, ceux-ci s'usent mais cette loi permet aussi d'envisager une bonification ou une absence d'usure. Dans ce cas particulier d'un composant ne vieillissant pas et qui lâche sans crier gare, on utilise une forme particulière de la loi de Weibull, la loi exponentielle, qui intervient également dans les processus de Poisson.

  • La loi gamma : elle s'invite aussi dans les processus poissonniens et dans le domaine de la fiabilité. Mais cette fois-ci, on admet l'usure avant la panne...

  • La loi bêta : elle est par exemple employée pour définir un intervalle de confiance lorsque des tirages ont déjà été effectués dans le cadre d'une problématique modélisée par une loi binomiale. La loi de l'arc-sinus en est une forme particulière.

  • La loi de Pareto : elle trouve son application dans différents domaines parmi lesquels la gestion de la qualité, l'analyse des ventes ou encore la gestion des stocks.

  • La loi de Gumbel permet de modéliser la distribution de valeurs extrêmes.

Enfin, on peut croiser deux v.a et obtenir une loi conjointe, discrète ou continue.

 

Les moments

Les moments caractérisent une loi de façon synthétique.

Rappelons le concept d’espérance : c’est une moyenne pondérée par des probabilités.

Un moment d’ordre \(n\) est l’espérance d’une v.a à la puissance \(n.\) C’est pourquoi on appelle l’espérance moment d’ordre 1.

Un moment CENTRÉ d’ordre \(n\) est l’espérance de l’écart entre les valeurs prises par la v.a  et leur espérance, à la puissance \(n.\) La variance est donc le moment centré d’ordre 2.

Lorsqu’on évoque les deux premiers moments d’une distribution, il s’agit donc de l’espérance et de la variance.

Le moment centré d’ordre 3 permet le calcul du coefficient d’asymétrie (skewness) et celui d’ordre 4 permet celui du coefficient d’aplatissement (kurtosis). Il s'agit de moments centrés et réduits. Dans le domaine économique, on ne s’intéresse pas aux moments d’ordre plus élevé.

 

extra-terrestres