Comment établir une convergence en probabilité ?
Une méthode en 4 questions réflexes pour choisir le bon argument et aller vite.
Les questions de convergence en probabilité sont, en général, simples dès lors que le cours est bien maîtrisé et que l’on connaît les bonnes méthodes.
La difficulté ne vient pas des calculs, mais du choix de l’outil : reconnaître une moyenne empirique (loi des grands nombres), appliquer une inégalité (Markov, Bienaymé–Tchebychev), utiliser une stabilité, ou revenir à la définition.
Le but de cette page est de te donner une démarche systématique, dans le bon ordre, pour aller vite et éviter les fausses pistes.
Les questions réflexes
Pour prouver \(X_n \overset{\mathbb{P}}{\longrightarrow} X\), on se pose systématiquement les questions suivantes.
S’agit-il d’une moyenne empirique ?
Démarche
Lorsque l’on étudie la convergence en probabilité d'une suite de variables aléatoires \( (X_n) \), le premier réflexe est de vérifier si \(X_n\) est une moyenne empirique, c’est-à-dire de la forme
\[ X_n=\frac{1}{n}\sum_{k=1}^{n} Y_k \]
où \((Y_k)_{k\in\mathbb{N}^*}\) est une suite de variables aléatoires indépendantes et de même loi, admettant une espérance \(m\) et une variance.
Dans ce cas, la loi faible des grands nombres donne immédiatement :
\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]
Loi faible des grands nombres
Loi faible des grands nombres (LFN).
Soit \((Y_k)_{k\in\mathbb{N}^*}\) une suite de variables aléatoires indépendantes et de même loi.
On suppose que \(Y_1\) admet une espérance \(m\) et une variance.
Alors :
\[ \frac{1}{n}\sum_{k=1}^{n} Y_k \overset{\mathbb{P}}{\longrightarrow} m \]
Exemple
On effectue \(n\) lancers indépendants d’une pièce équilibrée.
Pour tout \(k \in \mathbb{N}^*\), on note \(Y_k\) la variable aléatoire définie par :
\[ Y_k= \begin{cases} 1 & \text{si le \(k\)-ième lancer donne Pile}\\ 0 & \text{si le \(k\)-ième lancer donne Face} \end{cases} \]
On considère la proportion de Pile :
\[ X_n=\frac{1}{n}\sum_{k=1}^{n} Y_k \]
Les variables \((Y_k)_{k\in\mathbb{N}^*}\) sont indépendantes et de même loi, et on a :
\[ \mathbb{E}(Y_1)=\frac{1}{2} \qquad \text{et} \qquad \mathrm{Var}(Y_1)=\frac{1}{4} \]
On peut donc appliquer la loi faible des grands nombres, ce qui donne :
\[ X_n \overset{\mathbb{P}}{\longrightarrow} \frac{1}{2} \]
Autrement dit, la proportion de Pile se rapproche de \(\frac{1}{2}\) en probabilité lorsque \(n\) est grand.
Puis-je utiliser l’inégalité de Markov ?
Démarche
Si l’on cherche à montrer que
\[ X_n \overset{\mathbb{P}}{\longrightarrow} X \]
on peut chercher à prouver que :
\[ \forall \varepsilon>0,\ \lim_{n \to + \infty} \mathbb{P}(|X_n - X|\geqslant \varepsilon) = 0 \]
L’idée est alors de majorer cette probabilité à l’aide de l’inégalité de Markov, qui s’applique à toute variable aléatoire positive admettant une espérance.
Si \( X_n \) et \( X \) ont une espérance, alors \(|X_n - X|\) est une variable aléatoire positive admettant une espérance, donc on a :
\[ \mathbb{P}(|X_n - X|\geqslant \varepsilon) \leqslant \frac{\mathbb{E}(|X_n - X|)}{\varepsilon} \]
Il suffit donc de montrer que :
\[ \lim_{n \to + \infty} \mathbb{E}(|X_n - X|) = 0 \]
Si c’est le cas, alors la convergence en probabilité est établie.
Remarque importante.
En pratique, l’étude de \(\mathbb{E}(|X_n-X|)\) est souvent délicate à cause de la valeur absolue.
Par conséquent, lorsque \(X_n\) et \(X\) admettent un moment d’ordre \(2\), on applique très souvent l’inégalité de Markov à la variable aléatoire positive \((X_n-X)^2\).
Pour tout \(\varepsilon>0\), on obtient :
\[ \forall \varepsilon>0,\ \mathbb{P}\big((X_n-X)^2\geqslant \varepsilon^2\big) \leqslant \frac{\mathbb{E}\big((X_n-X)^2\big)}{\varepsilon^2} \]
Or la fonction \( t \mapsto \sqrt{t} \) est strictement croissante sur \( \mathbb{R}_+ \) donc on a de plus :
\[ \forall \varepsilon>0,\ \mathbb{P}\big((X_n-X)^2\geqslant \varepsilon^2\big) = \mathbb{P}\big(|X_n-X|\geqslant \varepsilon\big) \]
Il suffit donc souvent de montrer que :
\[ \lim_{n \to + \infty} \mathbb{E}\big((X_n-X)^2\big) = 0 \]
Si c’est le cas, alors la convergence en probabilité est établie.
Inégalité de Markov
Inégalité de Markov.
Soit \(Z\) une variable aléatoire positive admettant une espérance.
Alors, pour tout \(\varepsilon > 0\), on a :
\[ \forall \lambda \in \mathbb{R}_+^*,\ \mathbb{P}(Z \geqslant \lambda) \le \frac{\mathbb{E}(Z)}{\lambda} \]
Exemple
Soit \((X_n)_{n\in\mathbb{N}^*}\) une suite de variables aléatoires admettant une espérance et une variance.
On suppose que :
\[ \lim_{n\to+\infty}\mathbb{E}(X_n)=m \qquad \text{et} \qquad \lim_{n\to+\infty}\mathrm{Var}(X_n)=0 \]
Montrer que :
\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]
Soit \(\varepsilon>0\). Comme la fonction \( t \mapsto \sqrt{t} \) est strictement croissante sur \( \mathbb{R}_+ \), on a :
\[ \mathbb{P}(|X_n-m|\geqslant \varepsilon) = \mathbb{P}\big((X_n-m)^2\geqslant \varepsilon^2\big) \]
On applique l’inégalité de Markov à la variable aléatoire positive \((X_n-m)^2\), qui est une variable aléatoire positive admettant une espérance :
\[ \mathbb{P}\big((X_n-m)^2\geqslant \varepsilon^2\big) \le \frac{\mathbb{E}\big((X_n-m)^2\big)}{\varepsilon^2} \]
Or on a, d'après la formule de Koenig-Huygens :
\begin{align*} \mathbb{E}\big((X_n-m)^2\big) &= \mathbb{V}(X_n-m) + \left[ \mathbb{E}(X_n-m) \right]^2 \\ &\mathbb{V}(X_n)+\left[ \mathbb{E}(X_n)-m\right]^2 \end{align*}
On a ainsi :
\[ 0 \leqslant \mathbb{P}(|X_n-m|\geqslant \varepsilon) \le \frac{\mathbb{V}(X_n)+\left[ \mathbb{E}(X_n)-m\right]^2}{\varepsilon^2} \]
Enfin on sait que : \[ \lim_{n \to +\infty} \frac{\mathbb{V}(X_n)+\left[ \mathbb{E}(X_n)-m\right]^2}{\varepsilon^2} = 0 \]
donc :
\[ \lim_{n\to+\infty}\mathbb{P}(|X_n-m|\geqslant \varepsilon)=0 \]
Ainsi :
\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]
Puis-je utiliser l’inégalité de Bienaymé–Tchebychev ?
Démarche
Si l’on cherche à montrer que
\[ X_n \overset{\mathbb{P}}{\longrightarrow} X \]
et que les méthodes précédentes n'ont pas abouti, un réflexe fréquent est de majorer \(\mathbb{P}(|X_n-X|\geqslant \varepsilon)\) à l’aide de l’inégalité de Bienaymé–Tchebychev, dès que l’on dispose d’un moment d’ordre \(2\).
Soit \(\varepsilon>0\). Comme la fonction \(t\mapsto \sqrt{t}\) est strictement croissante sur \(\mathbb{R}_+\), on a :
\[ \mathbb{P}(|X_n-X|\geqslant \varepsilon) = \mathbb{P}\big((X_n-X)^2\geqslant \varepsilon^2\big) \]
Si \(X\) est une constante, ou si l’on sait exprimer \(|X_n-X|\) sous la forme \(|Z_n-\mathbb{E}(Z_n)|\), alors Bienaymé–Tchebychev donne :
\[ \mathbb{P}(|Z_n-\mathbb{E}(Z_n)|\geqslant \varepsilon) \le \frac{\mathbb{V}(Z_n)}{\varepsilon^2} \]
Le but est donc d’obtenir une majoration du type :
\[ \mathbb{P}(|X_n-X|\geqslant \varepsilon) \le \frac{u_n}{\varepsilon^2} \qquad \text{avec} \qquad \lim_{n \to + \infty} u_n = 0 \]
Dans ce cas, la convergence en probabilité est immédiate.
Inégalité de Bienaymé-Tchebychev
Soit \(Z\) une variable aléatoire admettant une variance.
Alors, pour tout \(\varepsilon>0\), on a :
\[ \mathbb{P}\big(|Z-\mathbb{E}(Z)|\geqslant \varepsilon\big) \le \frac{\mathbb{V}(Z)}{\varepsilon^2} \]
Exemple
Soit \(m\in\mathbb{R}\). Pour tout \(n\in\mathbb{N}^*\), on suppose que
\[ X_n \sim \mathcal{U} \! \left( \left[m-\frac{1}{n},\,m+\frac{1}{n}\right] \right) \]
Montrer que :
\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]
On commence par rappeler que, si \(X\sim \mathcal{U}([a,b])\), alors \( X\) admet une espérance et une variance et :
\[ \mathbb{E}(X)=\frac{a+b}{2} \qquad \text{et} \qquad \mathbb{V}(X)=\frac{(b-a)^2}{12} \]
Ici, on a \(a=m-\frac{1}{n}\) et \(b=m+\frac{1}{n}\), donc :
\[ \mathbb{E}(X_n)=\frac{\left(m-\frac{1}{n}\right)+\left(m+\frac{1}{n}\right)}{2}=m \]
et :
\[ \mathbb{V}(X_n)=\frac{\left(\left(m+\frac{1}{n}\right)-\left(m-\frac{1}{n}\right)\right)^2}{12} =\frac{\left(\frac{2}{n}\right)^2}{12} =\frac{1}{3n^2} \]
Soit alors \(\varepsilon>0\). On applique l’inégalité de Bienaymé–Tchebychev à \(X_n\) :
\[ \mathbb{P}\big(|X_n-\mathbb{E}(X_n)|\geqslant \varepsilon\big) \leqslant \frac{\mathbb{V}(X_n)}{\varepsilon^2} \]
Comme \(\mathbb{E}(X_n)=m\), on obtient :
\[ 0\leqslant \mathbb{P}\big(|X_n-m|\geqslant \varepsilon\big) \leqslant \frac{1}{3n^2\varepsilon^2} \]
Or \(\displaystyle \lim_{n\to+\infty} \dfrac{1}{3n^2\varepsilon^2}\to 0\) donc :
\[ \lim_{n\to+\infty}\mathbb{P}\big(|X_n-m|\geqslant \varepsilon\big)=0 \]
Ainsi :
\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]
Peut-on utiliser une propriété de stabilité (composition, somme) ?
Démarche
Si les méthodes précédentes n'ont pas abouti et avant de repartir de la définition, il faut vérifier si l’on peut utiliser une propriété de stabilité de la convergence en probabilité.
Les situations les plus fréquentes sont :
- on connaît déjà une convergence \(X_n \overset{\mathbb{P}}{\longrightarrow} X\) et l’on veut conclure pour une fonction de \(X_n\),
- on veut conclure pour une somme à partir de convergences déjà établies.
Cette méthode est très efficace : on prouve d’abord une convergence simple (souvent par loi des grands nombres ou par une inégalité), puis on conclut par stabilité.
Stabilité de la convergence en probabilité
Soit \((X_n)_{n\in\mathbb{N}^*}\) et \((Y_n)_{n\in\mathbb{N}^*}\) deux suites de variables aléatoires définies sur \((\Omega,\mathcal{A},\mathbb{P})\).
- Si \(X_n \overset{\mathbb{P}}{\longrightarrow} X\) et \(Y_n \overset{\mathbb{P}}{\longrightarrow} Y\), alors :
\[ X_n+Y_n \overset{\mathbb{P}}{\longrightarrow} X+Y \]
- Si \(g\) est continue et si \(X_n \overset{\mathbb{P}}{\longrightarrow} X\), alors :
\[ g(X_n) \overset{\mathbb{P}}{\longrightarrow} g(X) \]
Exemple
Soit \((Y_k)_{k\in\mathbb{N}^*}\) une suite de variables aléatoires indépendantes et de même loi, admettant une espérance \(m\) et une variance.
Étudier la convergence en loi de la suite \((Z_n)_{n\in\mathbb{N}^*}\) de variables aléatoires définies par : \[ \forall n \in \mathbb{N}^*,\ Z_n= \exp \! \left( \frac{1}{n}\sum_{k=1}^{n} Y_k \right) \]
On pose :
\[ \forall n \in \mathbb{N}^*,\ X_n=\frac{1}{n}\sum_{k=1}^{n} Y_k \]
\((Y_k)_{k\in\mathbb{N}^*}\) est une suite de variables aléatoires indépendantes et de même loi, admettant une espérance \(m\) et une variance donc, d’après la loi faible des grands nombres :
\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]
De plus la fonction \(g:x\mapsto \exp(x)\) est continue sur \(\mathbb{R}\) donc, par stabilité de la convergence en probabilité par fonction continue :
\[ Z_n=\exp(X_n) \overset{\mathbb{P}}{\longrightarrow} \exp(m) \]
Peut-on utiliser la définition ?
Démarche
Si aucune structure particulière n’apparaît (moyenne empirique, inégalités, stabilité), on revient à la définition de la convergence en probabilité et on montre que
\[ \forall \varepsilon>0,\ \lim_{n\to+\infty}\mathbb{P}(|X_n-X|\geqslant \varepsilon)=0 \]
La bonne stratégie consiste alors à calculer la probabilité \( \mathbb{P}(|X_n-X|\geqslant \varepsilon) \) puis à calculer sa limite avec les méthodes usuelles sur les suites.
Convergence en probabilité (définition)
Soit \((X_n)_{n\in\mathbb{N}^*}\) une suite de variables aléatoires définies sur \((\Omega,\mathcal{A},\mathbb{P})\).
On dit que \(X_n\) converge en probabilité vers \(X\) si :
\[ \forall \varepsilon>0,\ \lim_{n \to +\infty} \mathbb{P}(|X_n-X|\geqslant \varepsilon) = 0 \]
Exemple
Soit \((X_n)_{n\in\mathbb{N}^*}\) une suite de variables aléatoires définies sur \((\Omega,\mathcal{A},\mathbb{P})\). On suppose que \(X_n\) converge en loi vers une constante \(a\in\mathbb{R}\).
Montrer que :
\[ X_n \overset{\mathbb{P}}{\longrightarrow} a \]
Soit \(\varepsilon>0\). On veut montrer que :
\[ \lim_{n\to+\infty}\mathbb{P}(|X_n-a|\geqslant \varepsilon)=0 \]
On remarque que :
\[ \left[\,|X_n-a|\geqslant \varepsilon\,\right] = \left[\,X_n-a\geqslant \varepsilon\,\right] \cup \left[\,X_n-a\leqslant -\varepsilon\,\right] = \left[\,X_n\leqslant a-\varepsilon\,\right] \cup \left[\,X_n\geqslant a+\varepsilon\,\right] \]
Donc, comme les événements formant l'union sont disjoints (car \( a- \varepsilon < a < a + \varepsilon \)) :
\[ \mathbb{P}(|X_n-a|\geqslant \varepsilon) = \mathbb{P}(X_n\leqslant a-\varepsilon)+\mathbb{P}(X_n\geqslant a+\varepsilon) \]
Comme \(X_n\) converge en loi vers la constante \(a\), on a, pour tout réel \(x\neq a\),
\[ \lim_{n \to + \infty} \mathbb{P}(X_n\leqslant x) = \begin{cases} 0 & \text{si } x<a\\ 1 & \text{si } x>a \end{cases} \]
En particulier, comme \(a-\varepsilon<a\), on obtient :
\[ \lim_{n \to + \infty} \mathbb{P}(X_n\leqslant a-\varepsilon) = 0 \]
Pour le second terme, on raisonne par encadrement. On a, par inclusion :
\[ 0 \le \mathbb{P}(X_n\geqslant a+\varepsilon) \le \mathbb{P}\left(X_n>a+\frac{\varepsilon}{2}\right) \]
Or :
\[ \mathbb{P}\left(X_n>a+\frac{\varepsilon}{2}\right) = 1-\mathbb{P}\left(X_n\leqslant a+\frac{\varepsilon}{2}\right) \]
Comme \(a+\dfrac{\varepsilon}{2}>a\), la convergence en loi de \(X_n\) vers la constante \(a\) donne :
\[ \lim_{n \to + \infty}\mathbb{P}\left(X_n\leqslant a+\frac{\varepsilon}{2}\right) = 1 \]
Donc :
\[ \lim_{n \to + \infty} \mathbb{P}\left(X_n>a+\frac{\varepsilon}{2}\right) = 0 \]
Par encadrement, on en déduit :
\[ \lim_{n \to + \infty} \mathbb{P}(X_n\geqslant a+\varepsilon) = 0 \]
Finalement :
\[ \lim_{n \to + \infty} \mathbb{P}(|X_n-a|\geqslant \varepsilon) = 0 \]
Ainsi :
\[ X_n \overset{\mathbb{P}}{\longrightarrow} a \]