Variance, écart-type

Plan du chapitre "Probabilités"
Définition (variance, écart-type)
Soit {\text{X}} une variable aléatoire réelle sur {(\Omega,\mathbb{P})}, avec {\Omega} fini. Posons {m=\text{E}(\text{X})}.
La variable positive {\text{Y}=(\text{X}-m)^{2}} mesure la “dispersion” de {\text{X}} autour de {m}.
L’espérance de {\text{Y}}, appelé variance de {\text{X}}, est notée {\text{V}(\text{X})}. Ainsi {\text{V}(\text{X})=\text{E}((\text{X}-\text{E}(\text{X}))^{2})}.
La quantité {\sigma(\text{X})=\sqrt{\text{V}(\text{X})}} est appelée écart-type de la variable aléatoire {\text{X}}.
L’écart-type est justifiée pour des raisons d’homogénéité par rapport aux valeurs de {\text{X}}.

{\vartriangleright} Propriétés de la variance et de l’écart-type

  • On a la formule de Koenig-Huyghens : {\text{V}(\text{X})=\text{E}(\text{X}^{2})-\text{E}^{2}(\text{X})}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Pour tous réels {a,b} on a : {\text{V}(a\text{X} +b)=a^{2}\text{V}(\text{X})}, donc {\sigma(a\text{X}+b)=\left|a\right|\sigma(\text{X})}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • On a toujours {\text{V}(\text{X})\ge0} et on ne peut avoir {\text{V}(\text{X})=0} que si {\text{X}} est “presque constante”.

    Démonstration
      Pour voir ce contenu, vous devez : 

{\vartriangleright} Variance de lois usuelles

  • Variance d’une loi constante : si {\text{X}} est constante, alors {\text{V}(\text{X})=0}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Variance d’une variable indicatrice : si {\text{X}=\chi_{A}}, alors {\text{V}(\text{X})=\mathbb{P}(A)\,\mathbb{P}(\overline{A})}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Variance d’une loi de Bernoulli :
    Si {\text{X}} suit la loi de Bernoulli {\mathcal{B}(p)} de paramètre {p}, alors {\text{V}(\text{X})=pq}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Variance d’une loi uniforme :
    Si {\text{X}} suit la loi uniforme {\mathcal{U}([[ a,b]])} ({n} entiers successifs), alors {\text{V}(\text{X})=\dfrac{n^{2}-1}{12}}.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Variance de la loi binomiale :
    Si {\text{X}} suit la loi binomiale {\mathcal{B}(n,p)} de paramètres {n,p}, alors {\text{V}(\text{X})=npq}.

    Démonstration
      Pour voir ce contenu, vous devez : 

{\vartriangleright} Covariance de deux variables aléatoires réelles

Définition (covariance de deux variables aléatoires réelles)
Soit {X,Y} deux variables aléatoires réelles sur un espace probabilisé fini {(\Omge,\P)}.
La covariance de {\text{X},\text{Y}} est l’espérance, notée {\text{Cov}(\text{X},\text{Y})}, de {(\text{X}-\text{E}(\text{X}))(\text{Y}-\text{E}(\text{Y}))}.
On remarque que {\text{V}(\text{X})=\text{Cov}(\text{X},\text{X})}.
On a l’égalité {\text{Cov}(\text{X},\text{Y})=\text{E}(\text{X}\text{Y})-\text{E}(\text{X})\text{E}(\text{Y})}.
Démonstration
  Pour voir ce contenu, vous devez : 

Si {\text{X}} et {\text{Y}} sont indépendantes, elles sont de covariance nulle (réciproque fausse).
On a {\text{Cov}(\text{X},\text{Y})=\text{Cov}(\text{Y},\text{X})} (symétrie)
et {\text{Cov}(a\text{X}+b\text{X}',\text{Y})=a\,\text{Cov}(\text{X},\text{Y})+b\,\text{Cov}(\text{X}',\text{Y})} (bilinéarité).

Démonstration
  Pour voir ce contenu, vous devez : 

On vérifie que {\text{V}(\text{X}+\text{Y})=\text{V}(\text{X})+2\,\text{Cov}(\text{X},\text{Y})+\text{V}(\text{Y})}.

Démonstration
  Pour voir ce contenu, vous devez : 

On en déduit que si {\text{X}} et {\text{Y}} sont indépendantes, alors {\text{V}(\text{X}+\text{Y})=\text{V}(\text{X})+\text{V}(\text{Y})}.
Plus généralement si {\text{X}_{1},\ldots,\text{X}_{n}} sont deux à deux indépendantes : {\text{V}\Bigl(\displaystyle\sum_{i=1}^{n}\text{X}_{i}\Bigr)=\displaystyle\sum_{i=1}^{n}\text{V}(\text{X}_{i})}.

Démonstration
  Pour voir ce contenu, vous devez : 

On remarque que dans le résultat précédent, il n’est pas nécessaire que les variables {\text{E}_{i}} soient mutuellement indépendantes : il suffit qu’elles soient indépendantes deux à deux.

{\vartriangleright} Où l’on retouve la variance de la loi binomiale {\mathcal{B}(n,p)}

On sait que si {\text{X}\rightsquigarrow\mathcal{B}(n,p)} alors {\text{X}=\displaystyle\sum_{i=1}^{n}\text{X}_{i}} où les {\text{X}_{i}\rightsquigarrow\mathcal{B}(p)} sont mutuellement indépendantes.
Cette représentation de {\text{X}} permet de retrouver : {\text{V}(\text{X})=\displaystyle\sum_{i=1}^{n}\overbrace{\text{V}(\text{X}_{i})}^{=pq}=npq}.
Remarque : seule l’indépendance deux à deux des {\text{X}_{i}} est utilisée ici, pas leur indépendance mutuelle.

{\vartriangleright} Coefficient de corrélation linéaire

Définition (coefficient de corrélation linéaire)
Soit {\text{X},\text{Y}} deux variables aléatoires réelles de variance non nulle.
On appelle coefficient de corrélation linéaire de {\text{X}} et {\text{Y}} la quantité {\rho(\text{X},\text{Y})=\dfrac{\text{Cov}(\text{X},\text{Y})}{\sigma(\text{X})\sigma(\text{Y})}}.

Si {\text{X}} et {\text{Y}} sont indépendantes, on a bien sûr {\rho(\text{X},\text{Y})=0}.

On a toujours {\left|{\rho(\text{X},\text{Y})}\right|\le 1}. D’autre part : {\begin{cases}\begin{array}{rll}\rho(\text{X},\text{Y})&=1&\Leftrightarrow(\exists\, a>0,\exists\, b\in\mathbb{R},\;\mathbb{P}(\text{Y}=a\text{X}+b)=1)\\\\\rho(\text{X},\text{Y})&=-1&\Leftrightarrow(\exists\, a\lt 0,\exists\, b\in\mathbb{R},\;\mathbb{P}(\text{Y}=a\text{X}+b)=1)\end{array}\end{cases}}

En termes plus suggestifs, dire que {\rho(\text{X},\text{Y})} vaut {\pm1} (ou en est très proche) c’est dire que chacune des deux variables {\text{X}} et {\text{Y}} dépend “quasiment” de l’autre de façon affine.

Démonstration
  Pour voir ce contenu, vous devez : 

{\vartriangleright} Inégalités de Markov et de Bienaymé-Tchebychev

Proposition (inégalité de Markov)
Soit {\text{X}} une variable aléatoire réelle positive sur un univers probabilisé fini {(\Omega,\mathbb{P})}.
Pour tout {a>0}, on a l’inégalité : {\;\mathbb{P}(\text{X}\ge a)\le\dfrac{\text{E}(\text{X})}{a}}.
Démonstration
  Pour voir ce contenu, vous devez : 
Proposition (inégalité de Bienaymé-Tchebychev)
Soit {\text{X}} une variable aléatoire réelle sur un univers probabilisé fini {(\Omega,\mathbb{P})}.
Pour tout {\varepsilon>0}, on a : {\mathbb{P}\bigl(\left|{\text{X}-\text{E}(\text{X})}\right|\ge\varepsilon\bigr)\le\dfrac{\text{V}(\text{X})}{\varepsilon^{2}}}
Démonstration
  Pour voir ce contenu, vous devez : 

Page précédente : espérance d’une variable aléatoire
Retour au début : événements, probabilités