Couples de v.a. et lois conjointes
Un sujet central en statistiques. Une page à ne rater sous aucun prétexte puisqu’elle traite des croisements de deux variables aléatoires (v.a).
Vocabulaire
L’univers des possibles \(\Omega\) est \(\mathbb{R}^2.\)
\(X\) et \(Y\) sont des v.a discrètes ou continues sur l’espace probabilisable \((\Omega , A),\) \(A\) étant la tribu (\(X\) et \(Y\) peuvent être définies sur deux espaces probabilisables différents mais plus souvent sur le même ; c’est par exemple l’ensemble des individus faisant partie d'un panel de consommateurs pour lesquels on croise les tranches d’âge avec des opinions sur un produit.). Soit \(Z\) l’application \((X , Y),\) nommé couple de v.a.
On appelle loi conjointe (ou bivariée) la loi de probabilité du couple \((X, Y)\) sur l’espace probabilisé \((\Omega, A, P).\)
Avant de distinguer les v.a discrètes des v.a continues (bien qu’une situation mixte puisse aussi se rencontrer), précisons une dernière notion commune, celle de fonction de répartition du couple aléatoire \((X\,;Y)\) :
\(\forall (x,y) \in \mathbb{R}^2,\) \(F(x,y) = P[(X \leqslant x) \cap (Y \leqslant y)]\)
Il s’agit bien sûr d’une fonction croissante dont la limite à l’infini est égale à 1.
Dernière précision, lorsqu’on croise plus de deux v.a, on parle de vecteur aléatoire. Mais un couple, comme d’ailleurs une v.a seule est, déjà, mathématiquement un vecteur.
Variables aléatoires discrètes
\(A\) est la tribu discrète.
Les probabilités de \(Z\) peuvent être présentées dans un tableau. Celui-ci ressemble furieusement à celui qui est utilisé pour observer conjointement deux variables statistiques, les probabilités remplaçant les fréquences. Depuis la classe de seconde, chacun connaît les lois de probabilité qui apparaissent dans un tableau d’une seule ligne (voir la page exercices d’initiation aux probabilités, entre autres). Ici, nous sommes en présence d’une loi conjointe d’un couple de v.a présentée sous forme de tableau à double entrée. Attention, il ne faut pas le confondre avec un tableau qui permettrait de déterminer UNE v.a en en croisant deux autres indépendantes (Cf. la somme des points obtenus sur deux lancers de dés, voir en page initiation aux probabilités). Nous y reviendrons.
\(y_1\) | ... | \(y_i\) | ... | Loi marginale | |
\(x_1\) | \(p_{11}\) | ... | \(p_{1j}\) | ... | \(p_{1.}\) |
... | ... | ... | ... | ... | ... |
\(x_i\) | \(p_{i1}\) | ... | \(p_{ij}\) | ... | \(p_{i.}\) |
... | ... | ... | ... | ... | ... |
Loi marginale | \(p_{.1}\) | ... | \(p_{.j}\) | ... | 1 |
La somme des probabilités élémentaires est égale à 1.
\(\displaystyle{\sum\limits_{i} \sum\limits_{j}}{p_{ij}} = 1\)
Ce tableau fait apparaître le concept de loi marginale. En effet, la dernière colonne est celle de la loi marginale de \(X\) et la dernière ligne est celle de la loi marginale de \(Y.\) Ce sont donc les lois de probabilité de \(X\) et de \(Y.\) Ainsi, \(P(X = x_i)\) n’est autre que \(p_{i.}\) tandis que \(p_{.j}\) est \(P(Y = y_{j}).\)
En outre, il fait apparaître les probabilités conditionnelles.
Indépendance ou liaison
En pratique, l’une des préoccupations courantes des statisticiens est de vérifier s’il y a ou non indépendance entre deux v.a. C’est pourquoi ce tableau constitue le matériau de base pour procéder aux tests d’indépendance, par exemple celui du khi². Ce test est également faisable si les v.a sont continues du moment que les ensembles de définition sont découpés en classes ou si l’on s’attache à des variables statistiques, sans qu’il y ait de problématique probabiliste.
S’il existe une liaison, elle se mesure avec la covariance ou, de façon standardisée, par le coefficient de corrélation, voire d’autres techniques (corrélation des rangs…).
Variables aléatoires continues
Dans ce cas-ci, la fonction de répartition est continue.
La fonction de densité est sa dérivée : \(f(x,y) = \displaystyle{\frac{\partial ^2 F}{\partial x \partial y}}\)
Formellement, la probabilité de se trouver entre deux bornes d’une v.a et entre deux bornes d’une autre v.a s’exprime avec une intégrale double.
\(P(a_x < X \leqslant b_x \; \rm{et} \; a_y < Y \leqslant b_y )\) \(=\) \(\displaystyle{\iint_{a}^{b} {f(x,y)dx dy}}\)
Bien sûr, la somme de toutes les probabilités élémentaires est égale à 1.
\(\displaystyle{\iint_{- \infty}^{+ \infty} {f(x,y)dx dy}} = 1\)
On peut également définir une densité conditionnelle : \(p(y/x) = \displaystyle{\frac{f(x,y)}{f(x)}}\)
Souvent, les deux variables aléatoires suivent des lois normales. On parle alors de loi normale bivariée.
Opérations sur variables aléatoires
Enfin, mentionnons la possibilité de travailler non pas sur le croisement de deux v.a mais sur leur somme ou sur leur produit. Il s’agit d’une suite logique à l’analyse conjointe dans la mesure où l’on doit d’abord s’assurer de l’indépendance des deux v.a avant d’étudier la loi suivi par une v.a qui est fonction de deux autres.
Si l’on procède à deux expériences aléatoires indépendantes, on considère qu’en fait il n’y en a qu’une seule, ce qui simplifie les choses. L’étude de la loi de probabilité d’une somme de deux v.a n’a rien de bizarre : dans son expression la plus simple, il s’agit de l’exemple cité plus haut (loi de probabilité de la somme obtenue sur deux lancers de dés). Pour des utilisations plus pratiques, voir par exemple la page sur l'additivité de la loi de Poisson.