Événements indépendants (univers fini)

Dans toute cette partie, on considère un espace probabilisé \((\Omega, \mathcal{P}(\Omega),\mathbb{P})\). Tous les événements considérés sont donc des éléments de \(\mathcal{P}(\Omega)\).

Indépendance de deux événements

Définition

Deux événements \(A\) et \(B\) sont dits indépendants si : \[\mathbb{P}(A\cap B)=\mathbb{P}(A)\;\mathbb{P}(B)\]

Remarques
  • L’indépendance de deux événements est liée à la probabilité dont est muni l’espace probabilisé, et, rigoureusement, il serait préférable de dire que \(A\) et \(B\) sont indépendants pour la probabilité \(\mathbb{P}\) . La justification de l’indépendance de deux événements devra donc se faire ou bien par le calcul (rare), ou bien à l’aide d’arguments tirés de l’énoncé (ce qui est le plus souvent le cas).

  • Si \(A\) et \(B\) sont deux événements indépendants pour la probabilité \(\mathbb{P}\) et si \(C\) est un événement de probabilité non nulle, on n’a pas nécessairement \(\mathbb{P}_C(A\cap B)=\mathbb{P}_C(A)\;\mathbb{P}_C(B)\) ; autrement dit, \(A\) et \(B\) ne sont pas nécessairement indépendants pour \(\mathbb{P}_C\).

  • En particulier, on peut remarquer que, si \(A\) est un événement négligeable, \(A\) est indépendant de tout événement, en particulier de lui-même. En effet, si \(A\) est un événement de probabilité nulle, alors, pour tout événement \(B\), l’inclusion \(A\cap B\subset A\) implique que la probabilité \(\mathbb{P}(A\cap B)\) est nulle, et donc que : \[\mathbb{P}(A\cap B)=\mathbb{P}(A)\;\mathbb{P}(B)\] Il existe donc des événements qui sont indépendants d’eux-mêmes en probabilité (par exemple l’événement impossible), ce qui, intuitivement, n’est pas forcément évident.

Proposition

Si \(A\) et \(B\) sont deux événements et si \(\mathbb{P}(A)\neq 0\), \(A\) et \(B\) sont indépendants si et seulement si : \[\mathbb{P}_A(B)=\mathbb{P}(B)\]

Preuve

Comme \(\mathbb{P}(A)\neq 0\), on a : \(\mathbb{P}(A\cap B)=\mathbb{P}(A)\;\mathbb{P}_A(B)\) et donc : \[\begin{aligned} \mathbb{P}(A\cap B) =\mathbb{P}(A)\;\mathbb{P}(B) &\Longleftrightarrow\mathbb{P}(A)\;\mathbb{P}_A(B)\;\mathbb{P}(B)=\mathbb{P}(A)\;\mathbb{P}(B)\\ &\Longleftrightarrow\mathbb{P}_A(B)=\mathbb{P}(B) \end{aligned}\]

Proposition

Si \(A\) et \(B\) sont deux événements, les propositions suivantes sont équivalents :

  • \(A\) et \(B\) sont indépendants,

  • \(A\) et \(\overline{B}\) sont indépendants,

  • \(\overline{A}\) et \(B\) sont indépendants,

  • \(\overline{A}\) et \(\overline{B}\) sont indépendants.

Preuve
  • On suppose que \(A\) et \(B\) sont indépendants. En remarquant que \(B\) et \(\overline{B}\) sont deux événements disjoints dont la réunion est égale à \(\Omega\), on peut écrire : \[\mathbb{P}(A\cap B)+\mathbb{P}(A\cap \overline{B})=\mathbb{P}(A)\]

    et donc : \[\begin{aligned} \mathbb{P}(A\cap \overline{B})&=\mathbb{P}(A)-\mathbb{P}(A\cap B) \end{aligned}\] et, comme \(A\) et \(B\) sont supposés indépendants : \[\begin{aligned} \mathbb{P}(A\cap \overline{B})&=\mathbb{P}(A)-\mathbb{P}(A)\;\mathbb{P}(B)\\ &=\mathbb{P}(A) \left[1-\mathbb{P}(B)\right]\\ &=\mathbb{P}(A)\;\mathbb{P}(\overline{B}) \end{aligned}\] Ainsi, si \(A\) et \(B\) sont indépendants, alors \(A\) et \(\overline{B}\) le sont aussi.

  • On montre de même les implications \((ii\Rightarrow iii)\), \((iii\Rightarrow iv)\) et \((iv\Rightarrow i)\).

Famille d’événements indépendants

Définition

Soit \(I\) une partie non vide de \(\mathbb{N}\) et \((A_i)_{i\in I}\) une famille d’événements.

  • On dit que les événements de la famille \((A_i)_{i\in I}\) sont deux à deux indépendants si : \[\forall (i,j)\in I^2,\ i\neq j \Rightarrow \mathbb{P}(A_i\cap A_j)=\mathbb{P}(A_i)\;\mathbb{P}(A_j)\]

  • On dit que les événements de la famille \((A_i)_{1\leqslant i\leqslant n}\) sont mutuellement indépendants si, pour tout \( k\in\left[\kern-0.15em\left[ {1,n} \right]\kern-0.15em\right]\) et tout \( (i_j)_{1\leqslant j\leqslant k} \in\left[\kern-0.15em\left[ {1,n} \right]\kern-0.15em\right]^k \) tel que \( 1\leqslant i_1<\cdots <i_k\leqslant n \) : \[ \mathbb{P}\!\left(\bigcap_{j=1}^k A_{i_j}\right) =\prod_{j=1}^k \mathbb{P}(A_{i_j})\]

Remarques
  • Si les événements de la famille \((A_i)_{i\in I}\) sont mutuellement indépendants, alors ils sont deux à deux indépendants. En revanche, la réciproque est fausse en général. Il est important de noter que, dans la plupart des problèmes de probabilité, c’est la mutuelle indépendance qui est utile.

  • Comme c’est le plus souvent la mutuelle indépendance qui est utile, il est rare que l’on doive justifier qu’une famille est formée d’événements deux à deux indépendants. Pour cette raison, il arrive très fréquemment que l’on dise plus simplement que les événements de la famille \((A_i)_{i\in I}\) sont indépendants pour dire qu’ils sont mutuellement indépendants .

  • Attention au quantificateur \(\forall k\in\left[\kern-0.15em\left[ {1,n} \right]\kern-0.15em\right],\ \forall (i_j)_{1\leqslant j\leqslant k} \in\left[\kern-0.15em\left[ {1,n} \right]\kern-0.15em\right]^k \ / \ 1\leqslant i_1<\cdots <i_k\leqslant n\) de la définition : on ne peut pas choisir uniquement \((i_1,\dots,i_k)=(1,\dots,k)\) mais il faut bien envisager tous les choix possibles de \(k\) indices distincts \(i_1,\dots,i_k\) appartenant à \(\left[\kern-0.15em\left[ {1,n} \right]\kern-0.15em\right]\).

Proposition

Si \((A_i)_{i\in I}\) est une famille d’événements mutuellement indépendants et si \(I_1\) et \(I_2\) sont deux parties disjointes de \(I\) telles que \(I_1=I_2=I\), on définit une famille \((B_i)_{i\in I}\) d’événements mutuellement indépendants en posant : \[\forall i\in I_1,\ B_i=A_i \quad\text{et}\quad\forall i\in I_2,\ B_i=\overline{A_i}\]

Remarque

Cette proposition est une généralisation de la proposition précédente dans le cas de familles contenant plus de deux événements.

Exercice

On dispose de deux pièces donnant pile avec probabilité \(p\in\,]0,1[\). Deux joueurs \(A\) et \(B\) lancent simultanément une de ces pièces, à deux reprises. On suppose que les résultats des différents jets (entre lancers et entre pièces) sont mutuellement indépendants. \(A\) est déclaré vainqueur s’il obtient pile avant que \(B\) n’obtienne face. \(B\) est déclaré vainqueur s’il obtient face avant que \(A\) n’obtienne pile. Les deux joueurs ne peuvent être déclarés vainqueurs en même temps. S’il n’y a pas de vainqueur, le jeu est déclaré nul. Calculer la probabilité que \(A\) gagne.

Solution

Pour \(k\in\{1,2,3\}\), on note \(A_k\) l’événement le joueur \(A\) obtient pile au \(k^{\grave{e}me}\) lancer et \(B_k\) l’événement le joueur \(B\) obtient pile au \(k^{\grave{e}me}\) lancer. On note \(A\) l’événement \(A\) gagne. On a donc : \[E=(A_1\cap \overline{B_1}) \cup (\overline{A_1}\cap \overline{B_1}\cap A_2\cap \overline{B_2})\]

Or les événements \(A_1\cap \overline{B_1}\) et \(\overline{A_1}\cap \overline{B_1}\cap A_2\cap \overline{B_2}\) sont incompatibles, donc : \[\mathbb{P}(E)=\mathbb{P}(A_1\cap \overline{B_1}) + \mathbb{P}(\overline{A_1}\cap \overline{B_1}\cap A_2\cap \overline{B_2})\]

et alors, comme les résultats des différents lancers sont indépendants : \[\begin{aligned} \mathbb{P}(E)&=\mathbb{P}(A_1)\;\mathbb{P}(\overline{B_1}) + \mathbb{P}(\overline{A_1})\;\mathbb{P}( \overline{B_1})\;\mathbb{P}( A_2)\;\mathbb{P}(\overline{B_2})\\ &= p^2+p(1-p)^3\\ &= p\left[p+(1-p)^3\right] \end{aligned}\]