Probabilités (4/4)

    ℹ️    1    2    3    

Espérance d’une v.a.r.

D. Espérance d'une variable aléatoire réelle
Soit {\text{X}:\Omega\to E} une variable aléatoire réelle sur {(\Omega,\mathbb{P})}, avec {\Omega} un ensemble fini.
La quantité {\text{E}(\text{X})=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x)\,x} est appelée espérance de la variable aléatoire réelle {\text{X}}.
R. Interprétation de l'espérance

  • {\text{E}(\text{X})} est la moyenne pondérée des valeurs {x} que la variable {\text{X}} est susceptible de prendre, le poids affecté à chacune de ces valeurs {x} étant la probabilité de l’événement {(\text{X}=x)}.
  • Plutôt que de sommer sur les valeurs {x} de {\text{X}(\Omega)}, on peut sommer sur les résultats élémentaires {\omega}.
    On obtient alors la relation : {\text{E}(\text{X})=\displaystyle\sum_{\omega\in \Omega}\mathbb{P}(\{\omega\})\,\text{X}(\omega)}.

R. Espérance de lois usuelles

  • Espérance d’une loi constante :
    Si {\text{X}} est constante, de valeur {a}, alors {\text{E}(\text{X})=a}.
  • Espérance d’une variable indicatrice :
    Si {\text{X}} est l’indicatrice de {A}, alors {\text{E}(\text{X})=\mathbb{P}(A)}.
  • Espérance d’une loi de Bernoulli :
    Si {\text{X}} suit la loi de Bernoulli {\mathcal{B}(p)}, alors {\text{E}(\text{X})=p}.
  • Espérance d’une loi uniforme :
    Si {\text{X}\leadsto\mathcal{U}_{[[ a,b]]}}, alors {\text{E}(\text{X})=\dfrac{a+b}{2}}.
  • Espérance de la loi binomiale :
    Si {\text{X}\leadsto\mathcal{B}(n,p)}, alors {\text{E}(\text{X})=np}.

P. Théorème du transfert
Soit {\text{X}:\Omega\to E} une variable aléatoire sur l’espace probabilisé fini {(\Omega,\mathbb{P})}.
Soit {f:E\to\mathbb{R}} une application. Alors :{\text{E}(f(\text{X}))=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x)f(x)}

Cette propriété est très importante, elle signifie que pour calculer l’espérance de {\text{E}(\text{Y})}, et plutôt que d’utiliser la loi de {\text{Y}}, c’est-à-dire les probabilités {\mathbb{P}(Y=y)}, il suffit de connaître, et d’utiliser, la loi de {\text{X}}.

R. Croissance et linéarité de l'espérance
Soit {\text{X}} et {\text{Y}} deux variables aléatoires réelles sur {(\Omega,\mathbb{P})}, avec {\Omega} un ensemble fini.

  • On suppose que {\text{X}(\omega)\le \text{Y}(\omega)} pour tout {\omega} de {\Omega}. Alors {\text{E}(\text{X})\le \text{E}(\text{Y})}.
  • Si {X\ge0} alors {\text{E}(\text{X})=0\Leftrightarrow\mathbb{P}(\text{X}=0)=1} (c’est-à-dire : {\text{X}} est « presque nulle »).
  • Pour tous réels {a,b}, on a : {\text{E}(a \text{X}+b)=a\text{E}(\text{X})+b}.
  • Plus généralement, on a l’égalité : {\text{E}(a \text{X}+b \text{Y})=a \text{E}(\text{X})+b \text{E}(\text{Y})}
  • Par récurrence évidente, et pour toutes variables aléatoires {\text{X}_{1},\ldots,\text{X}_{n}}, on a : {E\Bigl(\displaystyle\sum_{i=1}^{n}\lambda_{i}\text{X}_{i}\Bigr)=\displaystyle\sum_{i=1}^{n}\lambda_{i}\text{E}(\text{X}_{i})}

R. On retrouve l'espérance de la loi B(n,p)
On sait que si {\text{X}\rightsquigarrow\mathcal{B}(n,p)} alors {\text{X}=\displaystyle\sum_{i=1}^{n}\text{X}_{i}} où les {\text{X}_{i}\rightsquigarrow\mathcal{B}(p)} sont mutuellement indépendantes.

Cette représentation de {\text{X}} permet de retrouver : {\text{E}(\text{X})=\displaystyle\sum_{i=1}^{n}\underbrace{\text{E}(\text{X}_{i})}_{=p}=np}Remarque : l’indépendance des {\text{X}_{i}} n’est pas utilisée ici.

P. Produit de deux variables indépendantes
Soit {\text{X}} et {\text{Y}} deux variables aléatoires réelles sur {(\Omega,\mathbb{P})}, avec {\Omega} un ensemble fini.
On suppose que {\text{X}} et {\text{Y}} sont indépendantes.
Alors : {\text{E}(\text{X}\text{Y})=\text{E}(\text{X})\,\text{E}(\text{Y})}.

Inversement, l’égalité {\text{E}(\text{X}\text{Y})=\text{E}(\text{X})\,\text{E}(\text{Y})} n’implique pas l’indépendance de {\text{X}} et {\text{Y}} en général.

Variance et covariance

Ce contenu nécessite une souscription active
    1    2    3