Couples de variables aléatoires

Plan du chapitre "Probabilités"

Couple de variables aléatoires

Proposition (couple formé par deux variables aléatoires)
Soient {\text{X}:\Omega\to E} et {\text{Y}:\Omega\to F} deux variables aléatoires sur un univers fini {\Omega}.
On définit une variable aléatoire {\text{Z}:\Omega\to E\times F} en posant : {\forall\,\omega\in\Omega,\;\text{Z}(\omega)=(\text{X}(\omega),\text{Y}(\omega))}.

La proposition précédente admet une réciproque :

Proposition (composantes d'une variable aléatoire à valeurs dans ExF)
Soit {\Omega} un univers fini. Soit {\text{Z}:\Omega\to E\times F} une variable aléatoire.
Soient {\text{X}} et {\text{Y}} les composantes de {\text{Z}}, définies par : {\forall\, \omega\in\Omega,\;\text{Z}(\omega)=(\text{X}(\omega),\text{Y}(\omega))}.
Alors les applications {\text{X}:\Omega\to E} et {\text{Y}:\Omega\to F} sont des variables aléatoires.

Définition (couple de variables aléatoires)
Soit {\Omega} un univers fini.
Dans les propositions précédentes, on dit que {\text{Z}=(\text{X},\text{Y})} est un couple de variables aléatoires.

On retiendra qu’il importe peu que {\text{X},\text{Y}} préexistent à {\text{Z}} ou au contraire s’en déduisent.
On remarquera également que {\text{Z}(\Omega)} est une partie (souvent stricte) de {\text{X}(\Omega)\times \text{Y}(\Omega)}.
Pour tout {(x,y)} de {\text{X}(\Omega)\times \text{Y}(\Omega)}, l’événement {(\text{Z}=(x,y))} sera noté {(\text{X}=x,\text{Y}=y)}.

{\vartriangleright} Combinaisons linéaires de variables aléatoires réelles

Soit {\text{Z}=(\text{X},\text{Y})} un couple de variables aléatoires réelles sur {\Omega}.
Pour tous scalaires {\lambda,\mu}, l’application {\lambda \text{X}+\mu \text{Y}} est une variable aléatoire réelle.
Il suffit en effet d’appliquer à {\text{Z}=(\text{X},\text{Y})} la fonction {\varphi} définie sur {\mathbb{R}^{2}} par {\varphi(x,y)=\lambda x+\mu y}.
L’ensemble des variables aléatoires réelles sur {\Omega} est donc un {\mathbb{R}}-espace vectoriel.
Remarque : pour des raisons similaires, l’application {\text{X}\text{Y}} est une variable aléatoire réelle sur {\Omega}.

{\vartriangleright} Vecteurs aléatoires

On peut généraliser ce qui précède à une application de {\Omega} dans un produit cartésien {F_{1}\times\cdots\times F_{n}}.
Si on note {\text{Z}=(\text{X}_{1},\ldots,\text{X}_{n})}, dire que {\text{Z}} est une variable aléatoire sur {\Omega} équivaut à dire que chacune des applications {\text{X}_{i}:\Omega\to F_{i}} est elle-même une variable aléatoire.
On dit alors que {\text{Z}} est un vecteur de variables aléatoires.
On peut aussi définir une variable aléatoire fonction {\varphi(\text{X}_{1},\text{X}_{2},\ldots,\text{X}_{n})} des {n} variables aléatoires {\text{X}_{i}}.

Loi conjointe, loi marginale, loi conditionnelle

Définition (loi conjointe d'un couple de variables aléatoires)
Soit {\text{X}} et {\text{Y}} deux variables aléatoires sur un espace probabilisé fini {(\Omega,\mathbb{P})}.
On appelle loi conjointe de {\text{X}} et {\text{Y}} la loi de la variable aléatoire {\text{Z}=(\text{X},\text{Y})}.
C’est donc la probabilité {\mathbb{P}_{\text{Z}}} définie sur {\text{Z}(\Omega)} par : {\forall\, A\subset \text{Z}(\Omega),\;\mathbb{P}_{\text{Z}}(A)=\mathbb{P}(\text{Z}^{-1}(A))}.

{\vartriangleright} Autres présentations de la loi conjointe

En termes équivalents :
La loi conjointe de {\text{X}} et {\text{Y}} est la donnée des probabilités {\mathbb{P}(\text{X}=x,\text{Y}=y)} pour tout {(x,y)} de {\text{Z}(\Omega)}
On se souvient que {\text{Z}(\Omega)} n’est qu’une partie de {\text{X}(\Omega)\times \text{Y}(\Omega)}.
Par ailleurs, il est clair que si {(x,y)} est dans le complémentaire de {\text{Z}(\Omega)} dans {\text{X}(\Omega)\times \text{Y}(\Omega)}, l’événement {(\text{X}=x,\text{Y}=y)} est impossible donc de probabilité nulle.
On peut donc également adopter la définition suivante :
La loi conjointe de {\text{X}} et {\text{Y}} est la donnée des {\mathbb{P}(\text{X}=x,\text{Y}=y)} pour tout {(x,y)} de {\text{X}(\Omega)\times \text{Y}(\Omega)}

Définition (lois marginales d'un couple de variables aléatoires)
Soit {\text{Z}=(\text{X},\text{Y})} un couple de variables aléatoires sur un espace probabilisé fini {(\Omega,\mathbb{P})}.
Les lois de {\text{X}} et de {\text{Y}} sont appelées lois marginales de {\text{Z}}.

{\vartriangleright} La loi conjointe détermine les lois marginales

Soit {\text{Z}=(\text{X},\text{Y})} un couple de variables aléatoires sur {(\Omega,\mathbb{P})}.

Proposition (de la loi conjointe aux lois marginales)
Soit {\text{Z}=(\text{X},\text{Y})} un couple de variables aléatoires sur {(\Omega,\mathbb{P})}.
On se donne la loi conjointe de {\text{X}} et {\text{Y}}, donc les probabilités {\mathbb{P}(\text{X}=x,\text{Y}=y)} pour {(x,y)\in\text{X}(\Omega)\times \text{Y}(\Omega)}.

Pour tout {x} de {\text{X}(\Omega)}, on a alors : {\mathbb{P}(\text{X}=x)=\displaystyle\sum_{y\in \text{Y}(\Omega)}\mathbb{P}(\text{X}=x,\text{Y}=y)} (1ère loi marginale de {\text{Z}}).
De même : {\forall\, y\in\text{Y}(\Omega),\;\mathbb{P}(\text{Y}=y)=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x,\text{Y}=y)} (2nde loi marginale de {\text{Z}}).

Démonstration
  Pour voir ce contenu, vous devez : 

{\vartriangleright} Les lois marginales ne déterminent pas la loi conjointe

Soit {\text{Z}=(\text{X},\text{Y})} un couple de variables aléatoires sur {(\Omega,\mathbb{P})}.
On suppose connues les lois marginales de {\text{Z}}, c’est-à-dire les lois de {\text{X}} et de {\text{Y}}, c’est-à-dire les probabilités {\mathbb{P}(\text{X}=x)} pour tout {x} de {\text{X}(\Omega)} et {\mathbb{P}(\text{Y}=y)} pour tout {y} de {\text{Y}(\Omega)}.
Ces informations ne sont pas suffisantes pour retrouver la loi conjointe de {\text{X}} et de {\text{Y}}.
Un exemple simple : on pose {\text{Z}=(\text{X},\text{Y})} avec {\text{X}(\Omega)=\text{Y}(\Omega)=\{0,1\}} et la loi conjointe :
\begin{center}
{\mathbb{P}(\text{X}=0,\text{Y}=0)=\mathbb{P}(\text{X}=1,\text{Y}=1)=p}\quad et\quad {\mathbb{P}(\text{X}=1,\text{Y}=0)=\mathbb{P}(\text{X}=0,\text{Y}=1)=\dfrac{1}{2}-p}

\end{center}
On voit que {\mathbb{P}(\text{X}=0)=\mathbb{P}(\text{X}=1)=\dfrac{1}{2}} et {\mathbb{P}(\text{Y}=0)=\mathbb{P}(\text{Y}=1)=\dfrac{1}{2}}.
Ici la simple connaissance des lois marginales du couple {(\text{X},\text{Y})} (toutes les deux uniformes sur {\{0,1\}}) ne permet pas de reconstituer la loi conjointe de {\text{X}} et {\text{Y}} (car le paramètre {p} est quelconque dans {[0,\frac12]}).

Définition (loi conditionnelle de Y sachant X=x)
Soit {\text{Z}=(\text{X},\text{Y})} un couple de variables aléatoires sur {(\Omega,\mathbb{P})}.

Soit {x} un élément de {\text{X}(\Omega)} tel que {\mathbb{P}(\text{X}=x)>0}.
Pour tout élément {y} de {\text{Y}(\Omega)}, on pose {\mathbb{P}_{(\text{X}=x)}(\text{Y}=y)=\dfrac{\mathbb{P}(\text{X}=x,\text{Y}=y)}{\mathbb{P}(\text{X}=x)}}.
Alors {\mathbb{P}_{(\text{X}=x)}} est une probabilité sur {\text{Y}(\Omega)}, dite “probabilité conditionnelle de {\text{Y}} sachant {(\text{X}=x)}“.

Remarques

  • On peut bien sûr utiliser la notation :
    {\mathbb{P}(\text{Y}=y\mid \text{X}=x)=\dfrac{\mathbb{P}(\text{X}=x,\text{Y}=y)}{\mathbb{P}(\text{X}=x)}}

  • Soit {y\in \text{Y}(\Omega)} tel que {\mathbb{P}(\text{Y}=y)>0}.
    La probabilité conditionnelle de {\text{X}} sachant {(\text{Y}=y)} est :
    {\forall\, x\in \text{X}(\Omega),\;\mathbb{P}_{(\text{Y}=\,y)}(\text{X}=x)=\mathbb{P}(\text{X}=x\mid \text{Y}=y)=\dfrac{\mathbb{P}(\text{X}=x,\text{Y}=y)}{\mathbb{P}(\text{Y}=y)}}.
Proposition (des lois conditionnelles aux lois marginales)
Soit {\text{Z}=(\text{X},\text{Y})} un couple de variables aléatoires sur {(\Omega,\mathbb{P})}.
Pour tout {x} de {\text{X}(\Omega)}, on a : {\mathbb{P}(\text{X}=x)=\displaystyle\sum_{y\in \text{Y}(\Omega)}\mathbb{P}(\text{Y}=y)\,\mathbb{P}(\text{X}=x\mid \text{Y}=y)}.
Pour tout {y} de {\text{Y}(\Omega)}, on a : {\mathbb{P}(\text{Y}=y)=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x)\,\mathbb{P}(\text{Y}=y\mid \text{X}=x)}.
Démonstration
  Pour voir ce contenu, vous devez : 

Rappel : si {\mathbb{P}(\text{Y}=y)=0} on convient que
{\mathbb{P}(\text{Y}=y)\,\mathbb{P}(\text{X}=x\mid \text{Y}=y)=0}.
Cette convention évite d’avoir à supposer que toutes les probabilités {\mathbb{P}(\text{Y}=y)} sont strictement positives dans la première des égalités de la proposition précédente.
C’est bien sûr la même chose avec la seconde égalité à chaque fois que {\mathbb{P}(\text{X}=x)=0}.

Page précédente : variables aléatoires
Page suivante : indépendance de variables aléatoires