⇧ ℹ️① Espace probabilisé. Probabilités conditionnelles.
② Loi d’une variable aléatoire. Lois usuelles.
③ Couples. Loi conjointe/marginale. Indépendance.
④ Espérance. (Co)variance. Bienaymé-Tchebychev. 1 2 3 ④
② Loi d’une variable aléatoire. Lois usuelles.
③ Couples. Loi conjointe/marginale. Indépendance.
④ Espérance. (Co)variance. Bienaymé-Tchebychev. 1 2 3 ④
Espérance d’une v.a.r.
D. Espérance d'une variable aléatoire réelle
Soit {\text{X}:\Omega\to E} une variable aléatoire réelle sur {(\Omega,\mathbb{P})}, avec {\Omega} un ensemble fini.
La quantité {\text{E}(\text{X})=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x)\,x} est appelée espérance de la variable aléatoire réelle {\text{X}}.
La quantité {\text{E}(\text{X})=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x)\,x} est appelée espérance de la variable aléatoire réelle {\text{X}}.
R. Interprétation de l'espérance
- {\text{E}(\text{X})} est la moyenne pondérée des valeurs {x} que la variable {\text{X}} est susceptible de prendre, le poids affecté à chacune de ces valeurs {x} étant la probabilité de l’événement {(\text{X}=x)}.
-
Plutôt que de sommer sur les valeurs {x} de {\text{X}(\Omega)}, on peut sommer sur les résultats élémentaires {\omega}.
On obtient alors la relation : {\text{E}(\text{X})=\displaystyle\sum_{\omega\in \Omega}\mathbb{P}(\{\omega\})\,\text{X}(\omega)}.
R. Espérance de lois usuelles
-
Espérance d’une loi constante :
Si {\text{X}} est constante, de valeur {a}, alors {\text{E}(\text{X})=a}. -
Espérance d’une variable indicatrice :
Si {\text{X}} est l’indicatrice de {A}, alors {\text{E}(\text{X})=\mathbb{P}(A)}. -
Espérance d’une loi de Bernoulli :
Si {\text{X}} suit la loi de Bernoulli {\mathcal{B}(p)}, alors {\text{E}(\text{X})=p}. -
Espérance d’une loi uniforme :
Si {\text{X}\leadsto\mathcal{U}_{[[ a,b]]}}, alors {\text{E}(\text{X})=\dfrac{a+b}{2}}. -
Espérance de la loi binomiale :
Si {\text{X}\leadsto\mathcal{B}(n,p)}, alors {\text{E}(\text{X})=np}.
P. Théorème du transfert
Soit {\text{X}:\Omega\to E} une variable aléatoire sur l’espace probabilisé fini {(\Omega,\mathbb{P})}.
Soit {f:E\to\mathbb{R}} une application. Alors :{\text{E}(f(\text{X}))=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x)f(x)}
Soit {f:E\to\mathbb{R}} une application. Alors :{\text{E}(f(\text{X}))=\displaystyle\sum_{x\in \text{X}(\Omega)}\mathbb{P}(\text{X}=x)f(x)}
Cette propriété est très importante, elle signifie que pour calculer l’espérance de {\text{E}(\text{Y})}, et plutôt que d’utiliser la loi de {\text{Y}}, c’est-à-dire les probabilités {\mathbb{P}(Y=y)}, il suffit de connaître, et d’utiliser, la loi de {\text{X}}.
R. Croissance et linéarité de l'espérance
Soit {\text{X}} et {\text{Y}} deux variables aléatoires réelles sur {(\Omega,\mathbb{P})}, avec {\Omega} un ensemble fini.
- On suppose que {\text{X}(\omega)\le \text{Y}(\omega)} pour tout {\omega} de {\Omega}. Alors {\text{E}(\text{X})\le \text{E}(\text{Y})}.
- Si {X\ge0} alors {\text{E}(\text{X})=0\Leftrightarrow\mathbb{P}(\text{X}=0)=1} (c’est-à-dire : {\text{X}} est « presque nulle »).
- Pour tous réels {a,b}, on a : {\text{E}(a \text{X}+b)=a\text{E}(\text{X})+b}.
- Plus généralement, on a l’égalité : {\text{E}(a \text{X}+b \text{Y})=a \text{E}(\text{X})+b \text{E}(\text{Y})}
- Par récurrence évidente, et pour toutes variables aléatoires {\text{X}_{1},\ldots,\text{X}_{n}}, on a : {E\Bigl(\displaystyle\sum_{i=1}^{n}\lambda_{i}\text{X}_{i}\Bigr)=\displaystyle\sum_{i=1}^{n}\lambda_{i}\text{E}(\text{X}_{i})}
R. On retrouve l'espérance de la loi B(n,p)
On sait que si {\text{X}\rightsquigarrow\mathcal{B}(n,p)} alors {\text{X}=\displaystyle\sum_{i=1}^{n}\text{X}_{i}} où les {\text{X}_{i}\rightsquigarrow\mathcal{B}(p)} sont mutuellement indépendantes.
Cette représentation de {\text{X}} permet de retrouver : {\text{E}(\text{X})=\displaystyle\sum_{i=1}^{n}\underbrace{\text{E}(\text{X}_{i})}_{=p}=np}Remarque : l’indépendance des {\text{X}_{i}} n’est pas utilisée ici.
P. Produit de deux variables indépendantes
Soit {\text{X}} et {\text{Y}} deux variables aléatoires réelles sur {(\Omega,\mathbb{P})}, avec {\Omega} un ensemble fini.
On suppose que {\text{X}} et {\text{Y}} sont indépendantes.
Alors : {\text{E}(\text{X}\text{Y})=\text{E}(\text{X})\,\text{E}(\text{Y})}.
On suppose que {\text{X}} et {\text{Y}} sont indépendantes.
Alors : {\text{E}(\text{X}\text{Y})=\text{E}(\text{X})\,\text{E}(\text{Y})}.
Inversement, l’égalité {\text{E}(\text{X}\text{Y})=\text{E}(\text{X})\,\text{E}(\text{Y})} n’implique pas l’indépendance de {\text{X}} et {\text{Y}} en général.
Variance et covariance
E. Exercices conseillés