Comment montrer qu’une variable aléatoire discrète admet une espérance ?
Une méthode en 6 questions réflexes pour justifier l’existence de \(\mathbb{E}(X)\) avant tout calcul.
En probabilités, on te demande très souvent de justifier l’existence de \(\mathbb{E}(X)\) (et parfois de \(\mathbb{E}(|X|)\)) avant de calculer une espérance. Pour une variable aléatoire discrète, cela revient à vérifier la convergence de la série correspondante.
L’objectif de cette méthode est d’adopter une démarche rapide : reconnaître une situation simple (nombre fini de valeurs, loi connue), ou réduire le problème à une comparaison/majoration permettant de conclure proprement.
Les questions réflexes
Pour montrer qu’une variable aléatoire discrète \(X\) admet une espérance, on se pose systématiquement les questions suivantes.
\( X \) prend-elle un nombre fini de valeurs ?
Démarche
Avant de commencer des calculs inutiles, quand on veut savoir si une variable aléatoire \( X \) admet une espérance, il faut commencer par s’intéresser au nombre de valeurs qu’elle prend.
Si \( X \) prend un nombre fini de valeurs, alors elle admet toujours une espérance.
Espérance d'une variable aléatoire finie
Si \( X \) est une variable aléatoire prenant un nombre fini de valeurs \( x_1,\dots,x_n \), alors elle admet une espérance et celle-ci est définie par
\[ \mathbb E(X)=\sum_{k=1}^n x_k\,\mathbb P(X=x_k) \]
Exemple
On lance un dé équilibré et on note \( X \) le nombre obtenu.
\[ \mathbb P(X=k)=\frac16 \qquad \text{pour } k\in\{1,2,3,4,5,6\} \]
La variable aléatoire \( X \) prend un nombre fini de valeurs, donc son espérance existe et vaut
\[ \mathbb E(X)=\sum_{k=1}^6 k\,\mathbb P(X=k) =\frac{1+2+3+4+5+6}{6} =\frac{7}{2} \]
\( X \) peut-elle s’écrire comme une somme de variables aléatoires simples ?
Démarche
Lorsqu’une variable aléatoire \( X \) peut s’écrire comme une somme finie de variables aléatoires simples, l’existence de son espérance se déduit immédiatement de la linéarité de l’espérance.
En effet, si
\[ X=X_1+\cdots+X_n \]
où \( X_1,\dots,X_n \) sont des variables aléatoires admettant une espérance, alors \( X \) admet une espérance et
\[ \mathbb{E}(X)=\mathbb{E}(X_1)+\cdots+\mathbb{E}(X_n) \]
Erreur classique.
Dire que les variables aléatoires \( X_1,\dots,X_n \) sont indépendantes, ce qui n’est pas nécessaire pour utiliser la linéarité de l’espérance.
Aucune hypothèse d’indépendance n’est nécessaire.Linéarité de l'espérance
Si \( X_1,\dots,X_n \) sont des variables aléatoires admettant une espérance, alors \( X = \displaystyle \sum_{i=1}^n X_i \) admet une espérance et
\[ \mathbb{E}\!\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^n \mathbb{E}(X_i) \]
Exemple
On effectue une suite de lancers indépendants de deux pièces équilibrées \(A\) et \(B\).
On note \(X\) (respectivement \(Y\)) la variable aléatoire égale au nombre de lancers effectués lorsque la pièce \(A\) (resp. la pièce \(B\)) donne pile pour la première fois.
Montrer que \(Z=X+Y\) admet une espérance.
Corrigé.
Par définition, \(X\) (resp. \(Y\)) est le temps d’attente d’un premier succès (obtenir pile) dans une suite d’épreuves indépendantes et de même probabilité de succès \(1/2\). Ainsi, \(X\) et \(Y\) suivent une loi géométrique de paramètre \(1/2\).
Il en découle que \(X\) et \(Y\) admettent une espérance. Par linéarité de l’espérance, la variable aléatoire \(Z=X+Y\) admet une espérance et
\[ \mathbb{E}(Z)=\mathbb{E}(X)+\mathbb{E}(Y) \]
\( X \) est-elle un produit de variables aléatoires indépendantes dont on connaît l’espérance ?
Démarche
Lorsque la variable aléatoire \( X \) peut s’écrire comme le produit de deux variables aléatoires indépendantes \( Y \) et \( Z\), alors, si \( Y \) et \( Z \) admettent une espérance, \( X \) admet une espérance.
On a de plus, dans ce cas
\[ \mathbb{E}(YZ)=\mathbb{E}(Y) \, \mathbb{E}(Z) \]
Espérance d'un produit
- Si \( X=X_1X_2 \) avec \( X_1 \) et \( X_2 \) indépendantes et admettant une espérance, alors \( X \) admet une espérance et
\[ \mathbb{E}(X)=\mathbb{E}(X_1)\mathbb{E}(X_2) \]
- Plus généralement, si \( X_1,\dots,X_n \) sont mutuellement indépendantes et admettent une espérance, alors le produit
\[
X_1\cdots X_n
\]
admet une espérance et
\[ \mathbb{E}(X_1\cdots X_n)=\mathbb{E}(X_1)\cdots\mathbb{E}(X_n) \]
Exemple
On considère deux suites indépendantes de lancers d’une pièce équilibrée.
Sur la première suite, on note \(X\) la variable aléatoire égale au nombre de lancers nécessaires pour obtenir pile pour la première fois. Sur la seconde suite, on note \(Y\) la variable aléatoire égale au nombre de lancers nécessaires pour obtenir pile pour la première fois.
Les variables aléatoires \(X\) et \(Y\) sont indépendantes et suivent toutes deux une loi géométrique de paramètre \(1/2\). Elles admettent donc une espérance.
On pose
\[ Z=XY \]
Comme \(X\) et \(Y\) sont indépendantes et admettent une espérance, la variable aléatoire \(Z\) admet une espérance et
\[ \mathbb{E}(Z)=\mathbb{E}(X)\mathbb{E}(Y) \]
Peut-on majorer \(|X|\) par une variable aléatoire admettant une espérance ?
Démarche
Lorsque l’on cherche à établir l’existence de l’espérance d’une variable aléatoire \( X \) et qu'on ne connaît pas sa loi, une des premières questions à se poser est de savoir si on peut la majorer (en valeur absolue) par une variable aléatoire \( Y \) admettant une espérance.
Dans ce cas en effet, le théorème de domination assure que \( X \) admet une espérance.
En particulier, si \( X \) est bornée, alors \( X \) admet une espérance.
Théorème de domination
- S’il existe une variable aléatoire \( Y \) telle que, presque sûrement\[ |X|\leqslant Y \] alors, si \( Y \) admet une espérance, \( X\) admet une espérance.
- En particulier, toute variable aléatoire bornée admet une espérance.
Exemple
Soit \(X_1,\dots,X_n\) des variables aléatoires définies sur un même espace probabilité \( (\Omega,\mathcal{A},\mathbb{P}) \), admettant toutes une espérance.
On pose
\[ X=\max(X_1,\dots,X_n) \]
Montrer que \(X\) admet une espérance.
Soit \( \omega \in \Omega\). Par définition, il existe \( k \in \left[ \! \left[ 1,n\right] \! \right] \) tel que : \[ X(\omega) = X_k(\omega) \] et alors : \[ \left| X(\omega) \right| = \left| X_k(\omega) \right| \leqslant \sum_{i=1}^n \left| X_i(\omega) \right| \] On a ainsi : \[ \left| X\right| \leqslant \sum_{i=1}^n \left| X_i \right| \] Or \(X_1,\dots,X_n\) admettent toutes une espérance, donc les variables aléatoires \(|X_1|,\dots,|X_n|\) admettent une espérance, ainsi que la variable aléatoire \( \displaystyle \sum_{i=1}^n \left| X_i \right| \) donc, d'après le théorème de domination, \( X\) admet une espérance.
Connaît-on la loi de \( X \) ?
Démarche
Si \( X \) est une variable aléatoire discrète, il existe une suite \((x_n)_{n\in\mathbb{N}}\) de réels deux à deux distincts telle que \( X \) prenne ses valeurs dans \(\{x_n,\ n\in\mathbb{N}\}\).
Avec ces notations, pour montrer que \( X \) admet une espérance, il suffit de prouver que la série
\[ \sum x_n\,\mathbb{P}(X=x_n) \]
est absolument convergente.
Pour cela, on peut utiliser les méthodes usuelles d’étude de la nature d’une série.
Définition due l'espérance d'une VAR discrète
On dit que \(X\) admet une espérance si et seulement si la série
\[ \sum x_n\,\mathbb{P}(X=x_n) \]
est absolument convergente.
Dans ce cas, l’espérance de \(X\) est le réel \(\mathbb{E}(X)\) défini par
\[ \mathbb{E}(X)=\sum_{n\in\mathbb{N}} x_n\,\mathbb{P}(X=x_n) \]
Exemple
Soit \( X \) une variable aléatoire discrète à valeurs dans \(\mathbb{N}^*\), dont la loi est donnée par
\[ \forall n\in\mathbb{N}^*,\ \mathbb{P}(X=n)=\frac{1}{n(n+1)} \]
Étudier l’existence de l’espérance de \( X \).
Pour étudier l’existence de l’espérance de \( X \), on étudie la convergence absolue de la série à termes positifs \(\sum n\,\mathbb{P}(X=n)\).
On commence par simplifier le terme général. On a
\[ \begin{align*} \forall n\in\mathbb{N}^*,\ n\,\mathbb{P}(X=n) &=n\left(\frac{1}{n(n+1)}\right)\\ &=\frac{1}{n+1} \end{align*} \]
On en déduit
\[ n\,\mathbb{P}(X=n)\sim \frac{1}{n} \]
Or la série \(\sum \frac{1}{n}\) est une série de Riemann divergente. Par comparaison de séries à termes positifs, la série \(\sum n\,\mathbb{P}(X=n)\) est divergente.
La variable aléatoire \( X \) n’admet donc pas d’espérance.
\( X \) s’écrit-elle comme une fonction d’une autre variable aléatoire dont on connaît la loi ?
Démarche
Il arrive que la loi de \( X \) ne soit pas connue directement, mais que \( X \) puisse s’écrire comme une fonction d’une variable aléatoire \( Y \) dont la loi est connue.
Dans ce cas, on utilise le théorème de transfert pour étudier l’existence de l’espérance de \( X \).
Théorème de transfert
Soit \(X\) une variable aléatoire discrète prenant ses valeurs dans un ensemble \(\{x_n,\ n\in\mathbb{N}\}\).
Soit \(g : \mathbb{R} \to \mathbb{R}\) une fonction.
Alors la variable aléatoire \(g(X)\) admet une espérance si et seulement si la série
\[ \sum |g(x_n)|\,\mathbb{P}(X=x_n) \]
est convergente et, dans ce cas :
\[ \mathbb{E}(g(X)) = \sum_{n=0}^{+\infty} g(x_n)\,\mathbb{P}(X=x_n) \]
Exemple
Soit \( X \) une variable aléatoire discrète suivant la loi géométrique de paramètre \( p\in\left]0,1\right[ \).
Montrer que la variable aléatoire
\[ Y=\frac{1}{X} \]
admet une espérance.
La variable aléatoire \( X \) est discrète à valeurs dans \(\mathbb{N}^*\) et sa loi est connue. La variable aléatoire \( Y \) s’écrit comme une fonction de \( X \), ce qui permet d’utiliser le théorème de transfert puisque la fonction \( n \mapsto \frac{1}{n} \) est bien définie sur \( \mathbb{N}^* \).
Pour étudier l’existence de l’espérance de \( Y \), on étudie la convergence absolue de la série à termes positifs
\[ \sum \frac{1}{n}\,\mathbb{P}(X=n) \]
Or on a
\[ \forall n\in\mathbb{N}^*,\ 0\leqslant \frac{1}{n}\,\mathbb{P}(X=n) \leqslant \mathbb{P}(X=n) \]
Or la série \(\sum \mathbb{P}(X=n)\) est une série convergente donc, par comparaison de séries à termes positifs, la série de terme général \(\dfrac{1}{n} \, \mathbb{P}(X=n)\) est convergente, donc absolument convergente car c'est une série à termes positifs.
La variable aléatoire \( Y \) admet une espérance.