Espérance d’une variable aléatoire

Plan du chapitre "Probabilités"

Espérance d’une variable aléatoire réelle

Définition (espérance d'une variable aléatoire réelle)
Soit {\text{X}:\Omega\to E} une variable aléatoire réelle sur {(\Omega,\mathbb{P})}, avec {\Omega} un ensemble fini.
La quantité {\text{E}(\text{X})=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x)\,x} est appelée espérance de la variable aléatoire réelle {\text{X}}.
  • {\text{E}(\text{X})} est la moyenne pondérée des valeurs {x} que la variable {\text{X}} est susceptible de prendre, le poids affecté à chacune de ces valeurs {x} étant la probabilité de l’événement {(\text{X}=x)}.
  • Plutôt que de sommer sur les valeurs {x} de {\text{X}(\Omega)}, on peut sommer sur les résultats élémentaires {\omega}.
    On obtient alors la relation : {\text{E}(\text{X})=\displaystyle\sum_{\omega\in \Omega}\mathbb{P}(\{\omega\})\,\text{X}(\omega)}.

    Démonstration
      Pour voir ce contenu, vous devez : 

{\vartriangleright} Espérance de lois usuelles

  • Espérance d’une loi constante : si {\text{X}} est constante, de valeur {a}, alors {\text{E}(\text{X})=a}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Espérance d’une variable indicatrice :
    si {\text{X}} est l’indicatrice d’un événement {A}, alors {\text{E}(\text{X})=\mathbb{P}(A)}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Espérance d’une loi de Bernoulli :
    Si {\text{X}} suit la loi de Bernoulli {\mathcal{B}(p)} de paramètre {p}, alors {\text{E}(\text{X})=p}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Espérance d’une loi uniforme :
    Si {\text{X}} suit la loi uniforme {\mathcal{U}([[ a,b]])} sur {[[ a,b]]}, alors {\text{E}(\text{X})=\dfrac{a+b}{2}}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Espérance de la loi binomiale :
    Si {\text{X}} suit la loi binomiale {\mathcal{B}(n,p)} de paramètres {n,p}, alors {\text{E}(\text{X})=np}.

    Démonstration
      Pour voir ce contenu, vous devez : 

{\vartriangleright} Théorème du transfert

La propriété suivante est très importante.
On considère une fonction {\text{Y}=f(\text{X})} d’une variable aléatoire {X}.
Pour calculer {\text{E}(\text{Y})}, il faut théoriquement connaître la loi de {\text{Y}}, c’est-à-dire les probabilités {\mathbb{P}(Y=y)}.
En fait il suffit de connaître, et d’utiliser, la loi de {\text{X}} :

Proposition (théorème du transfert)
Soit {\text{X}:\Omega\to E} une variable aléatoire sur {(\Omega,\mathbb{P})}, avec {\Omega} fini.
Soit {f:E\to\mathbb{R}} une application. Alors {\text{E}(f(\text{X}))=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x)f(x)}.
Démonstration
  Pour voir ce contenu, vous devez : 

{\vartriangleright} Croissance et linéarité de l’espérance

Soit {\text{X}} et {\text{Y}} deux variables aléatoires réelles sur {(\Omega,\mathbb{P})}, avec {\Omega} un ensemble fini.

  • On suppose que {\text{X}(\omega)\le \text{Y}(\omega)} pour tout {\omega} de {\Omega}. Alors {\text{E}(\text{X})\le \text{E}(\text{Y})}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Si {X\ge0} alors {\text{E}(\text{X})=0\Leftrightarrow\mathbb{P}(\text{X}=0)=1} (c’est-à-dire : {\text{X}} est “presque nulle”).

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Pour tous réels {a,b}, on a : {\text{E}(a \text{X}+b)=a\text{E}(\text{X})+b}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Plus généralement, on a l’égalité : {\text{E}(a \text{X}+b \text{Y})=a \text{E}(\text{X})+b \text{E}(\text{Y})}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Par récurrence évidente, et pour toutes variables {\text{X}_{1},\ldots,\text{X}_{n}}, on a : {E\Bigl(\displaystyle\sum_{i=1}^{n}\lambda_{i}\text{X}_{i}\Bigr)=\displaystyle\sum_{i=1}^{n}\lambda_{i}\text{E}(\text{X}_{i})}

{\vartriangleright} Où l’on retrouve l’espérance de la loi binomiale {\mathcal{B}(n,p)}

On sait que si {\text{X}\rightsquigarrow\mathcal{B}(n,p)} alors {\text{X}=\displaystyle\sum_{i=1}^{n}\text{X}_{i}} où les {\text{X}_{i}\rightsquigarrow\mathcal{B}(p)} sont mutuellement indépendantes.
Cette représentation de {\text{X}} permet de retrouver : {\text{E}(\text{X})=\displaystyle\sum_{i=1}^{n}\underbrace{\text{E}(\text{X}_{i})}_{=p}=np}.
Remarque : l’indépendance des {\text{X}_{i}} n’est pas utilisée ici.

{\vartriangleright} Espérance du produit de deux variables indépendantes

Proposition (espérance du produit de deux variables indépendantes)
Soit {\text{X}} et {\text{Y}} deux variables aléatoires réelles sur {(\Omega,\mathbb{P})}, avec {\Omega} un ensemble fini.
On suppose que {\text{X}} et {\text{Y}} sont indépendantes. Alors : {\text{E}(\text{X}\text{Y})=\text{E}(\text{X})\,\text{E}(\text{Y})}.
Démonstration
  Pour voir ce contenu, vous devez : 

Inversement, l’égalité {\text{E}(\text{X}\text{Y})=\text{E}(\text{X})\,\text{E}(\text{Y})} n’implique pas l’indépendance de {\text{X}} et {\text{Y}} en général.

Page précédente : indépendance de variables aléatoires
Page suivante : variance, écart-type