Conditionnement et indépendance

Plan du chapitre "Probabilités"

Il est sous-entendu que tous les énoncés de cette sous-section (définitions et propositions) commencent par la même phrase “Soit {(\Omega,\mathbb{P})} un espace probabilisé fini”.

Proposition (probabilité conditionnelle de A sachant B)
Soit {B} un événement tel que {\mathbb{P}(B)>0}.
Pour tout événement {A}, on pose {\mathbb{P}_{B}(A)=\dfrac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}}.
Alors {\mathbb{P}_{B}} est une probabilité sur {\Omega}, dite “application probabilité conditionnée à {B}“.
Démonstration
  Pour voir ce contenu, vous devez : 

Le réel {\mathbb{P}_{B}(A)=\dfrac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}} est aussi noté {\mathbb{P}(A\mid B)}.

Ce réel est appelé “probabilité conditionnelle de {A} sachant {B}“.

Avec cette définition, on a l’égalité importante : {\mathbb{P}(A\cap B)=\mathbb{P}(B)\;\mathbb{P}_{B}(A)}.

Convention d’écriture

Si {\mathbb{P}(B)=0} (donc {\mathbb{P}(A\cap B)=0}) on convient que : {\mathbb{P}(A\cap B)=\mathbb{P}(B)\,\mathbb{P}(A\mid B)=0}.

Cependant, dans ce cas, on évitera d’utiliser la notation {\mathbb{P}_{B}}.

Proposition (formule des probabilités composées)
Soit {(A_{n})_{n\ge0}} une suite d’événements. Pour tout {n} de {\mathbb{N}}, posons {B_{n}=\displaystyle\bigcap_{0\le k\le n}A_k}.
Il est clair que la suite {n\mapsto\mathbb{P}(B_{n})} est décroissante.
Pour tout {n} tel que {\mathbb{P}(B_{n})>0}, on a : {\mathbb{P}(B_{n+1})=\mathbb{P}(A_{0})\displaystyle\prod_{k=0}^{n}\mathbb{P}_{B_{k}}(A_{k+1})}.

Pour {n=0}, la formule précédente s’écrit : {\mathbb{P}(A_{0}\cap A_{1})=\mathbb{P}(A_{0})\,\mathbb{P}_{A_{0}}(A_{1})\text{\ (si\ }\mathbb{P}(A_{0})>0)}
Pour {n=1}, elle s’écrit : {\mathbb{P}(A_{0}\cap A_{1}\cap A_{2})=\mathbb{P}(A_{0})\,\mathbb{P}_{A_{0}}(A_{1})\,\mathbb{P}_{A_{0}\cap A_{1}}(A_{2})\text{\ (si\ }\mathbb{P}(A_{0}\cap A_{1})>0)}
Pour {n=2}, elle s’écrit (sous la condition {\mathbb{P}(A_{0}\cap A_{1}\cap A_{2})>0}) : {\mathbb{P}(A_{0}\cap A_{1}\cap A_{2}\cap A_{3})=\mathbb{P}(A_{0})\,\mathbb{P}_{A_{0}}(A_{1})\,\mathbb{P}_{A_{0}\cap A_{1}}(A_{2})\,\mathbb{P}_{A_{0}\cap A_{1}\cap A_{2}}(A_{3})}

En utilisant l’autre notation pour les probabilités conditionnelles, cela s’écrit :
{\begin{array}{l}\mathbb{P}(A_{0}\cap A_{1}\cap A_{2}\cap A_{3})\\\\\quad=\mathbb{P}(A_{0})\;\mathbb{P}(A_{1}\mid A_{0})\;\mathbb{P}(A_{2}\mid A_{0}\cap A_{1})\;\mathbb{P}(A_{3}\mid A_{0}\cap A_{1}\cap A_{2})\end{array}}

Démonstration
  Pour voir ce contenu, vous devez : 
Proposition (formule des probabilités totales)
Soit {(A_{i})_{0\le i\le n}} un système complet d’événements. Soit {B} un événement.
Alors {\mathbb{P}(B)=\displaystyle\sum_{i=0}^{n}\mathbb{P}(B\cap A_{i})=\displaystyle\sum_{i=0}^{n}\mathbb{P}(A_i)\,\mathbb{P}(B\mid A_i)\,}.

Rappel : si {\mathbb{P}(A_i)=0}, on convient que {\mathbb{P}(A_i)\,\mathbb{P}(B\mid A_i)=0}.

Démonstration
  Pour voir ce contenu, vous devez : 
Proposition (formule de Bayes, première version)
Soit {A} et {B} deux événements tels que {\mathbb{P}(A)>0} et {\mathbb{P}(B)>0}.
Alors on a l’égalité : {\mathbb{P}(A\mid B)=\dfrac{\mathbb{P}(A)\;\mathbb{P}(B\mid A)}{\mathbb{P}(B)}}.
Démonstration
  Pour voir ce contenu, vous devez : 
Proposition (formule de Bayes, deuxième version)
Soit {(A_i)_{0\le i\le n}} un système complet fini d’événements.
Soit {B} un événement tel que {\mathbb{P}(B)>0}.
Pour tout {i} de {[[ 0,n]]}, on a : {\mathbb{P}(A_i\mid B)= \dfrac{\mathbb{P}(A_i)\;\mathbb{P}(B\mid A_i)}{\displaystyle\sum_{0\le j\le n}\mathbb{P}(A_j)\;\mathbb{P}(B\mid A_j)}}
Démonstration
  Pour voir ce contenu, vous devez : 
Définition (indépendance de deux événements)
On dit que deux événements {A} et {B} sont indépendants si {\mathbb{P}(A\cap B)=\mathbb{P}(A)\,\mathbb{P}(B)}.

NB : si {\mathbb{P}(B)>0}, l’indépendance de {A} et {B} équivaut à l’égalité {\mathbb{P}(A\mid B)=\mathbb{P}(A)}.

Définition (indépendance mutuelle d'une famille finie d'événements)
Soit {(A_{i})_{0\le i\le n}} une famille finie d’événements.
On dit que {A_{0},\ldots,A_{n}} sont mutuellement indépendants si : {\forall\, J\subset[[ 0,n]],\;\mathbb{P}\bigl(\displaystyle\bigcap_{j\in J}A_j\bigr)=\prod_{j\in J}\mathbb{P}(A_{j})}

Il est clair que toute sous-famille d’événements mutuellement indépendants est à son tour constituée d’événements mutuellement indépendants.

{\vartriangleright} Rapport entre “indépendance mutuelle” et “indépendance deux à deux”

  • Soit {(A_{i})_{0\le i\le n}} une famille finie d’événements.
    S’ils sont mutuellement indépendants, ils sont indépendants deux à deux.
  • À partir de trois événements la réciproque est fausse.
    On retiendra donc que “l’indépendance deux à deux n’entraîne pas l’indépendance mutuelle”.

    Démonstration
      Pour voir ce contenu, vous devez : 

Remarques

  • Si l’événement {A} est négligeable (c’est-à-dire si {\mathbb{P}(A)=0}) ou s’il est presque sûr (c’est-à-dire si {\mathbb{P}(A)=1}) alors {A} est indépendant de tout événement {B} (réciproque vraie).

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Si {A} et {B} sont indépendants, alors {A} et {\overline{B}} le sont également.

    Démonstration
      Pour voir ce contenu, vous devez : 
  • Soit {(A_{i})_{0\le i\le n}} une famille finie d’événements, mutuellement indépendants.

    Pour tout {i\in[[ 0,n]]}, soit {B_{i}=A_{i}} ou {B_{i}=\overline{A_{i}}}.
    Alors {B_{0},\ldots,B_{n}} sont mutuellement indépendants.

    Démonstration
      Pour voir ce contenu, vous devez : 

Page précédente : événements, probabilités
Page suivante : variables aléatoires