Méthodes

Comment établir une convergence en probabilité ?

Une méthode en 4 questions réflexes pour choisir le bon argument et aller vite.

Thème : Probabilités
Chapitre : Probabilités
Année : ECG2
Option : Maths approfondies

Les questions de convergence en probabilité sont, en général, simples dès lors que le cours est bien maîtrisé et que l’on connaît les bonnes méthodes.

La difficulté ne vient pas des calculs, mais du choix de l’outil : reconnaître une moyenne empirique (loi des grands nombres), appliquer une inégalité (Markov, Bienaymé–Tchebychev), utiliser une stabilité, ou revenir à la définition.

Le but de cette page est de te donner une démarche systématique, dans le bon ordre, pour aller vite et éviter les fausses pistes.

Les questions réflexes

Pour prouver \(X_n \overset{\mathbb{P}}{\longrightarrow} X\), on se pose systématiquement les questions suivantes.


S’agit-il d’une moyenne empirique ?

Démarche

Lorsque l’on étudie la convergence en probabilité d'une suite de variables aléatoires \( (X_n) \), le premier réflexe est de vérifier si \(X_n\) est une moyenne empirique, c’est-à-dire de la forme

\[ X_n=\frac{1}{n}\sum_{k=1}^{n} Y_k \]

où \((Y_k)_{k\in\mathbb{N}^*}\) est une suite de variables aléatoires indépendantes et de même loi, admettant une espérance \(m\) et une variance.

Dans ce cas, la loi faible des grands nombres donne immédiatement :

\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]

Exemple

On effectue \(n\) lancers indépendants d’une pièce équilibrée.

Pour tout \(k \in \mathbb{N}^*\), on note \(Y_k\) la variable aléatoire définie par :

\[ Y_k= \begin{cases} 1 & \text{si le \(k\)-ième lancer donne Pile}\\ 0 & \text{si le \(k\)-ième lancer donne Face} \end{cases} \]

On considère la proportion de Pile :

\[ X_n=\frac{1}{n}\sum_{k=1}^{n} Y_k \]

Les variables \((Y_k)_{k\in\mathbb{N}^*}\) sont indépendantes et de même loi, et on a :

\[ \mathbb{E}(Y_1)=\frac{1}{2} \qquad \text{et} \qquad \mathrm{Var}(Y_1)=\frac{1}{4} \]

On peut donc appliquer la loi faible des grands nombres, ce qui donne :

\[ X_n \overset{\mathbb{P}}{\longrightarrow} \frac{1}{2} \]

Autrement dit, la proportion de Pile se rapproche de \(\frac{1}{2}\) en probabilité lorsque \(n\) est grand.


Puis-je utiliser l’inégalité de Markov ?

Démarche

Si l’on cherche à montrer que

\[ X_n \overset{\mathbb{P}}{\longrightarrow} X \]

on peut chercher à prouver que :

\[ \forall \varepsilon>0,\ \lim_{n \to + \infty} \mathbb{P}(|X_n - X|\geqslant \varepsilon) = 0 \]

L’idée est alors de majorer cette probabilité à l’aide de l’inégalité de Markov, qui s’applique à toute variable aléatoire positive admettant une espérance.

Si \( X_n \) et \( X \) ont une espérance, alors \(|X_n - X|\) est une variable aléatoire positive admettant une espérance, donc on a :

\[ \mathbb{P}(|X_n - X|\geqslant \varepsilon) \leqslant \frac{\mathbb{E}(|X_n - X|)}{\varepsilon} \]

Il suffit donc de montrer que :

\[ \lim_{n \to + \infty} \mathbb{E}(|X_n - X|) = 0 \]

Si c’est le cas, alors la convergence en probabilité est établie.

Remarque importante.

En pratique, l’étude de \(\mathbb{E}(|X_n-X|)\) est souvent délicate à cause de la valeur absolue.

Par conséquent, lorsque \(X_n\) et \(X\) admettent un moment d’ordre \(2\), on applique très souvent l’inégalité de Markov à la variable aléatoire positive \((X_n-X)^2\).

Pour tout \(\varepsilon>0\), on obtient :

\[ \forall \varepsilon>0,\ \mathbb{P}\big((X_n-X)^2\geqslant \varepsilon^2\big) \leqslant \frac{\mathbb{E}\big((X_n-X)^2\big)}{\varepsilon^2} \]

Or la fonction \( t \mapsto \sqrt{t} \) est strictement croissante sur \( \mathbb{R}_+ \) donc on a de plus :

\[ \forall \varepsilon>0,\ \mathbb{P}\big((X_n-X)^2\geqslant \varepsilon^2\big) = \mathbb{P}\big(|X_n-X|\geqslant \varepsilon\big) \]

Il suffit donc souvent de montrer que :

\[ \lim_{n \to + \infty} \mathbb{E}\big((X_n-X)^2\big) = 0 \]

Si c’est le cas, alors la convergence en probabilité est établie.

Exemple

Soit \((X_n)_{n\in\mathbb{N}^*}\) une suite de variables aléatoires admettant une espérance et une variance.

On suppose que :

\[ \lim_{n\to+\infty}\mathbb{E}(X_n)=m \qquad \text{et} \qquad \lim_{n\to+\infty}\mathrm{Var}(X_n)=0 \]

Montrer que :

\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]

Soit \(\varepsilon>0\). Comme la fonction \( t \mapsto \sqrt{t} \) est strictement croissante sur \( \mathbb{R}_+ \), on a :

\[ \mathbb{P}(|X_n-m|\geqslant \varepsilon) = \mathbb{P}\big((X_n-m)^2\geqslant \varepsilon^2\big) \]

On applique l’inégalité de Markov à la variable aléatoire positive \((X_n-m)^2\), qui est une variable aléatoire positive admettant une espérance :

\[ \mathbb{P}\big((X_n-m)^2\geqslant \varepsilon^2\big) \le \frac{\mathbb{E}\big((X_n-m)^2\big)}{\varepsilon^2} \]

Or on a, d'après la formule de Koenig-Huygens :

\begin{align*} \mathbb{E}\big((X_n-m)^2\big) &= \mathbb{V}(X_n-m) + \left[ \mathbb{E}(X_n-m) \right]^2 \\ &\mathbb{V}(X_n)+\left[ \mathbb{E}(X_n)-m\right]^2 \end{align*}

On a ainsi :

\[ 0 \leqslant \mathbb{P}(|X_n-m|\geqslant \varepsilon) \le \frac{\mathbb{V}(X_n)+\left[ \mathbb{E}(X_n)-m\right]^2}{\varepsilon^2} \]

Enfin on sait que : \[ \lim_{n \to +\infty} \frac{\mathbb{V}(X_n)+\left[ \mathbb{E}(X_n)-m\right]^2}{\varepsilon^2} = 0 \]

donc :

\[ \lim_{n\to+\infty}\mathbb{P}(|X_n-m|\geqslant \varepsilon)=0 \]

Ainsi :

\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]


Puis-je utiliser l’inégalité de Bienaymé–Tchebychev ?

Démarche

Si l’on cherche à montrer que

\[ X_n \overset{\mathbb{P}}{\longrightarrow} X \]

et que les méthodes précédentes n'ont pas abouti, un réflexe fréquent est de majorer \(\mathbb{P}(|X_n-X|\geqslant \varepsilon)\) à l’aide de l’inégalité de Bienaymé–Tchebychev, dès que l’on dispose d’un moment d’ordre \(2\).

Soit \(\varepsilon>0\). Comme la fonction \(t\mapsto \sqrt{t}\) est strictement croissante sur \(\mathbb{R}_+\), on a :

\[ \mathbb{P}(|X_n-X|\geqslant \varepsilon) = \mathbb{P}\big((X_n-X)^2\geqslant \varepsilon^2\big) \]

Si \(X\) est une constante, ou si l’on sait exprimer \(|X_n-X|\) sous la forme \(|Z_n-\mathbb{E}(Z_n)|\), alors Bienaymé–Tchebychev donne :

\[ \mathbb{P}(|Z_n-\mathbb{E}(Z_n)|\geqslant \varepsilon) \le \frac{\mathbb{V}(Z_n)}{\varepsilon^2} \]

Le but est donc d’obtenir une majoration du type :

\[ \mathbb{P}(|X_n-X|\geqslant \varepsilon) \le \frac{u_n}{\varepsilon^2} \qquad \text{avec} \qquad \lim_{n \to + \infty} u_n = 0 \]

Dans ce cas, la convergence en probabilité est immédiate.

Exemple

Soit \(m\in\mathbb{R}\). Pour tout \(n\in\mathbb{N}^*\), on suppose que

\[ X_n \sim \mathcal{U} \! \left( \left[m-\frac{1}{n},\,m+\frac{1}{n}\right] \right) \]

Montrer que :

\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]

On commence par rappeler que, si \(X\sim \mathcal{U}([a,b])\), alors \( X\) admet une espérance et une variance et :

\[ \mathbb{E}(X)=\frac{a+b}{2} \qquad \text{et} \qquad \mathbb{V}(X)=\frac{(b-a)^2}{12} \]

Ici, on a \(a=m-\frac{1}{n}\) et \(b=m+\frac{1}{n}\), donc :

\[ \mathbb{E}(X_n)=\frac{\left(m-\frac{1}{n}\right)+\left(m+\frac{1}{n}\right)}{2}=m \]

et :

\[ \mathbb{V}(X_n)=\frac{\left(\left(m+\frac{1}{n}\right)-\left(m-\frac{1}{n}\right)\right)^2}{12} =\frac{\left(\frac{2}{n}\right)^2}{12} =\frac{1}{3n^2} \]

Soit alors \(\varepsilon>0\). On applique l’inégalité de Bienaymé–Tchebychev à \(X_n\) :

\[ \mathbb{P}\big(|X_n-\mathbb{E}(X_n)|\geqslant \varepsilon\big) \leqslant \frac{\mathbb{V}(X_n)}{\varepsilon^2} \]

Comme \(\mathbb{E}(X_n)=m\), on obtient :

\[ 0\leqslant \mathbb{P}\big(|X_n-m|\geqslant \varepsilon\big) \leqslant \frac{1}{3n^2\varepsilon^2} \]

Or \(\displaystyle \lim_{n\to+\infty} \dfrac{1}{3n^2\varepsilon^2}\to 0\) donc :

\[ \lim_{n\to+\infty}\mathbb{P}\big(|X_n-m|\geqslant \varepsilon\big)=0 \]

Ainsi :

\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]


Peut-on utiliser une propriété de stabilité (composition, somme) ?

Démarche

Si les méthodes précédentes n'ont pas abouti et avant de repartir de la définition, il faut vérifier si l’on peut utiliser une propriété de stabilité de la convergence en probabilité.

Les situations les plus fréquentes sont :

  • on connaît déjà une convergence \(X_n \overset{\mathbb{P}}{\longrightarrow} X\) et l’on veut conclure pour une fonction de \(X_n\),
  • on veut conclure pour une somme à partir de convergences déjà établies.

Cette méthode est très efficace : on prouve d’abord une convergence simple (souvent par loi des grands nombres ou par une inégalité), puis on conclut par stabilité.

Exemple

Soit \((Y_k)_{k\in\mathbb{N}^*}\) une suite de variables aléatoires indépendantes et de même loi, admettant une espérance \(m\) et une variance.

Étudier la convergence en loi de la suite \((Z_n)_{n\in\mathbb{N}^*}\) de variables aléatoires définies par : \[ \forall n \in \mathbb{N}^*,\ Z_n= \exp \! \left( \frac{1}{n}\sum_{k=1}^{n} Y_k \right) \]

On pose :

\[ \forall n \in \mathbb{N}^*,\ X_n=\frac{1}{n}\sum_{k=1}^{n} Y_k \]

\((Y_k)_{k\in\mathbb{N}^*}\) est une suite de variables aléatoires indépendantes et de même loi, admettant une espérance \(m\) et une variance donc, d’après la loi faible des grands nombres :

\[ X_n \overset{\mathbb{P}}{\longrightarrow} m \]

De plus la fonction \(g:x\mapsto \exp(x)\) est continue sur \(\mathbb{R}\) donc, par stabilité de la convergence en probabilité par fonction continue :

\[ Z_n=\exp(X_n) \overset{\mathbb{P}}{\longrightarrow} \exp(m) \]


Peut-on utiliser la définition ?

Démarche

Si aucune structure particulière n’apparaît (moyenne empirique, inégalités, stabilité), on revient à la définition de la convergence en probabilité et on montre que

\[ \forall \varepsilon>0,\ \lim_{n\to+\infty}\mathbb{P}(|X_n-X|\geqslant \varepsilon)=0 \]

La bonne stratégie consiste alors à calculer la probabilité \( \mathbb{P}(|X_n-X|\geqslant \varepsilon) \) puis à calculer sa limite avec les méthodes usuelles sur les suites.

Exemple

Soit \((X_n)_{n\in\mathbb{N}^*}\) une suite de variables aléatoires définies sur \((\Omega,\mathcal{A},\mathbb{P})\). On suppose que \(X_n\) converge en loi vers une constante \(a\in\mathbb{R}\).

Montrer que :

\[ X_n \overset{\mathbb{P}}{\longrightarrow} a \]

Soit \(\varepsilon>0\). On veut montrer que :

\[ \lim_{n\to+\infty}\mathbb{P}(|X_n-a|\geqslant \varepsilon)=0 \]

On remarque que :

\[ \left[\,|X_n-a|\geqslant \varepsilon\,\right] = \left[\,X_n-a\geqslant \varepsilon\,\right] \cup \left[\,X_n-a\leqslant -\varepsilon\,\right] = \left[\,X_n\leqslant a-\varepsilon\,\right] \cup \left[\,X_n\geqslant a+\varepsilon\,\right] \]

Donc, comme les événements formant l'union sont disjoints (car \( a- \varepsilon < a < a + \varepsilon \)) :

\[ \mathbb{P}(|X_n-a|\geqslant \varepsilon) = \mathbb{P}(X_n\leqslant a-\varepsilon)+\mathbb{P}(X_n\geqslant a+\varepsilon) \]

Comme \(X_n\) converge en loi vers la constante \(a\), on a, pour tout réel \(x\neq a\),

\[ \lim_{n \to + \infty} \mathbb{P}(X_n\leqslant x) = \begin{cases} 0 & \text{si } x<a\\ 1 & \text{si } x>a \end{cases} \]

En particulier, comme \(a-\varepsilon<a\), on obtient :

\[ \lim_{n \to + \infty} \mathbb{P}(X_n\leqslant a-\varepsilon) = 0 \]

Pour le second terme, on raisonne par encadrement. On a, par inclusion :

\[ 0 \le \mathbb{P}(X_n\geqslant a+\varepsilon) \le \mathbb{P}\left(X_n>a+\frac{\varepsilon}{2}\right) \]

Or :

\[ \mathbb{P}\left(X_n>a+\frac{\varepsilon}{2}\right) = 1-\mathbb{P}\left(X_n\leqslant a+\frac{\varepsilon}{2}\right) \]

Comme \(a+\dfrac{\varepsilon}{2}>a\), la convergence en loi de \(X_n\) vers la constante \(a\) donne :

\[ \lim_{n \to + \infty}\mathbb{P}\left(X_n\leqslant a+\frac{\varepsilon}{2}\right) = 1 \]

Donc :

\[ \lim_{n \to + \infty} \mathbb{P}\left(X_n>a+\frac{\varepsilon}{2}\right) = 0 \]

Par encadrement, on en déduit :

\[ \lim_{n \to + \infty} \mathbb{P}(X_n\geqslant a+\varepsilon) = 0 \]

Finalement :

\[ \lim_{n \to + \infty} \mathbb{P}(|X_n-a|\geqslant \varepsilon) = 0 \]

Ainsi :

\[ X_n \overset{\mathbb{P}}{\longrightarrow} a \]


error: Ce contenu est protégé !